斯坦福大学研究:教育水平较低地区的 AI 写作工具使用率更高

xxn 阅读:21937 2025-03-04 18:01:16 评论:0

据 IT之家 3 月 4 日的报道,自从 2022 年底 ChatGPT 面世以来,人工智能语言模型对全球的潜在影响已引发广泛讨论。最新由斯坦福大学进行的研究进一步明朗了这一前景。研究显示,AI 语言模型目前在多个行业中协助完成多达四分之一的专业沟通工作,尤其是在教育水平较低的美国地区,其影响尤为明显。

研究者在报告中指出:“研究结果揭示了一个新的现实,企业、消费者以及国际组织在沟通中已经大量依赖生成式 AI。”该研究追踪了从 2022 年 1 月到 2024 年 9 月这一时期,不同行业中大型语言模型(LLM)的应用情况。研究涵盖了美国消费者金融保护局(CFPB)收到的 687,241 份消费者投诉、537,413 份企业新闻稿、3.043 亿份工作招聘启事及 15,919 份联合国新闻稿。

通过统计检测系统跟踪词汇使用模式,研究人员发现,在此期间,约有 18% 的金融消费者投诉(其中在阿肯色州的投诉中高达 30%)表现出 AI 的介入;企业新闻稿中约 24%、工作招聘启事中有 15% 和联合国新闻稿中有 14% 的内容也显示出 AI 的贡献。

研究还发现,尽管城市区域的 AI 使用率较高(18.2%),但在教育水平相对较低的地区,AI 写作工具的使用频率更高(19.9%),超过了教育程度较高的地区(17.4%)。这一现象悖离了传统的技术采用模式,通常情况下,高教育程度的人群更早接受新技术。

研究者指出:“在消费者投诉领域,LLM 的采用呈现出与以往技术传播趋势截然不同的地理与人口统计特征。以往的技术采纳集中在城市地区、高收入人群及高教育程度者之中。”

研究表明,AI 写作工具可能为那些教育经历较少的人群提供了一种“助力”。他们提到:“尽管城乡间的数字鸿沟依然存在,但我们发现,在消费者投诉领域,教育水平较低的地区显示出略高的 LLM 采用率,这表明这些工具或许能够成为消费者维权的‘平衡器’。”

对 AI 写作检测工具的可靠性一直存在争议,而该研究也证明了这一点。在单篇文档的层面上,AI 检测工具的效果不佳,但在分析数以百万计的文档的整体数据时,一些特征性模式开始显现,暗示 AI 语言模型对文本内容的影响。

根据以往发布的统计框架,研究者发展了一种新方法,比较 ChatGPT 发布前后词汇频率和语言模式的变化。通过分析大量文本,研究者估算 AI 辅助内容在人口层面的比例,假设大型语言模型会选择特定的词汇、句式结构及语言模式,这些特征与一般人类写作略有不同。

为了验证该方法的有效性,研究团队创建了一个已知 AI 内容比例(从 0% 到 25%)的测试集,结果显示他们的预测误差低于 3.3%。这一统计验证增强了他们对人口层面估算的信心。

IT之家注意到,尽管研究团队特别说明,其估算可能仅反映了 AI 实际使用的最低水平,真实的 AI 参与情况可能更高。由于难以检测经过大量编辑的文本或更加复杂的 AI 生成内容,因此研究者警告说,他们报告的采用率可能严重低估了生成式 AI 的真实使用情况。

根据研究者的观点,他们分析的各个领域(消费者投诉、企业沟通、工作招聘启事)均展示出相似的采用变化:在 ChatGPT 于 2022 年 11 月发布后的三至四个月内,采用率显著提升,随后在 2023 年底趋于稳定。

研究者承认,由于研究主要集中在英语文本,分析等存在一定局限性。此外,正如前文所述,他们发现难以可靠地检测经过人工编辑的 AI 生成文本或由更新模型生成的人类风格写作。因此,研究团队认为其结果仅代表 AI 写作工具使用率的下限。

研究者认为,2024 年 AI 写作采用率的停滞可能反映出市场的饱和,或者是更新的 LLM 生成的文本能逃避检测。他们总结道,如今的世界中,人类写作与 AI 产生的内容日益难以区分,这对社会沟通方式产生了深远影响。

研究者表示:“对 AI 生成内容的日益依赖可能为沟通带来挑战。”他们指出,“在敏感领域,过度依赖 AI 可能致使信息未能解决实际问题,或在对外发布时影响信息的可信性。过度依赖 AI 也可能导致公众对企业信息的真实程度产生怀疑。”

广告声明:文中的外部链接(包括但不限于超链接、二维码、口令等形式),旨在提供更多信息以节省查找时间,结果仅供参考。

声明

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

搜索
排行榜
关注我们

扫一扫关注我们,了解最新精彩内容