根据发表在《自然》期刊上的一项研究,参数规模更大的 AI 聊天机器人倾向于更可能胡说八道。西班牙 Valencian Research Institute for Artificial Intelligence 的研究员分析了大模型的幻觉,观察随着模型参数规模愈来愈大其幻觉或错误是如何变化的。研究团队发现,更大更精调的大模型更精确,但也更不可靠。它们产生的错误答案比例略有增加。原因是更大参数规模的模型倾向于更不可能回避问题,比如说不知道答案或改变话题。研究人员说,结果是大模型尝试回答所有问题,生成了更多正确的答案以及更多错误的答案。大模型愈来愈擅长于伪装成无所不知。用户可能会高估 AI 聊天机器人的能力。研究人员分析了三种模型家族:OpenAI 的 GPT、Meta 的 LLaMA 和 BigScience 的开源模型 BLOOM。
Tor 匿名网络项目与基于 Tor 的匿名操作系统项目 Tails 宣布了合并,此举有助于简化合作、更好的可持续性、降低开销,扩大培训和推广的区域。Tails 是在 2023 年底向 Tor 项目提出合并运营的设想。Tails 现有结构难以应付更大的规模,相比下 Tor 项目有着更大更成熟的结构,与 Tor 合并提供了一种解决方案。Tails 可以专注于其核心使命——维护和改进操作系统,探索更多互补用例,同时能受益于 Tor 项目更大的组织结构。
LG 宣布开始在电视屏保上展示广告。LG 最早是在 9 月 5 日向广告商披露这一计划的,没有向消费者或其电视客户广而告之,显然是因为广告不是什么让消费者兴奋的功能。用户报告在 LG 最新旗舰电视 G4 上看到全屏的屏保广告。广告是默认打开的,用户可以在设置里关闭。根据 LG 广告部门 LG AD Solutions 的说明,屏保广告在 LG 智能电视的主屏幕、LG Channels 和 Content Store 上激活,旨在利用空闲屏幕时间,将被视为停机时间的时间段变成宝贵的参与机会。LG AD Solutions 委托进行的测试表明,屏保广告将品牌知名度平均提升了 2.5 倍。
微软透露了能修正 AI 幻觉的新工具 Correction。幻觉是大模型固有的缺陷,Correction 主要是通过交叉验证去修正幻觉,它并不能从根本上解决幻觉问题。Correction 首先标记潜在有错误的文本,然后将其与事实来源进行比较进行事实核查。Correction 作为 Azure AI Content Safety API 的一部分提供给用户,能与任何文本生成模型一起使用,包括 Meta 的 Llama 和 OpenAI 的 GPT-4o。华盛顿大学的博士生 Os Keyes 认为 Correction 可能会减少部分问题,但也会产生新的问题,因为它的幻觉检测库也会产生幻觉。