周二,当 Cryptopolitan 检查基于生成式预训练 Transformer(GPT)语言模型的聊天框如何响应时,结果相似但不完全相同。
事实证明,大卫·梅耶尔不再是一个禁忌的名字。根据 ChatGPT-4o 的说法,Mayer 是一个相当常见的名字,尽管它无法指定这个人。当被问及之前的故障时,ChatGPT 对此不予理睬,并表示“
我明白你指的是什么!可能存在格式、拼写或内容生成方面出现故障或错误的情况,但与“David Mayer”这个名字的持续拼写错误没有任何具体关系。
它还建议报告“奇怪且不一致”的回应。
其他名字——布莱恩·胡德(Brian Hood)、乔纳森·特利(Jonathan Turley)、乔纳森·齐特林(Jonathan Zittrain)、大卫·法伯(David Faber)和吉多·斯科尔扎(Guido Scorza)——导致系统在周末出现故障,并在周二我们检查时再次出现故障。
报告发现,这些名字属于公众或半公众人物,例如记者、律师或可能与 OpenAI 涉及隐私或法律纠纷的人。例如,据报道,名为 Hood 的个人过去曾被 ChatGPT 歪曲,导致与 OpenAI 进行法律讨论。
TechCrunch 猜测 OpenAI 可能会对名称列表持谨慎态度,以便以不同的方式处理敏感或受法律保护的信息。可能是为了遵守隐私法或法律协议。然而,每当寻找有关上述名称的信息时,代码故障可能会导致聊天机器人失败。
多年来,人工智能公司之间因生成错误信息或违反数据隐私框架而被追究多起案件。在 2020 年 Janecyk 诉国际商业机器公司 (Janecyk v. International Business Machines) 案件中,摄影师 Tim Janecyk 声称IBM 在未经同意的情况下不当使用摄影师点击的图像用于研究目的。不久前,谷歌的 Gemini AI 因其图像生成能力而受到批评,导致其暂时停运。在 2023 年提起的PM 诉 OpenAI LP 集体诉讼中,OpenAI 被指控未经同意使用“窃取的私人信息”。
据报道,2024 年,印度通讯社 ANI对 OpenAI 提起诉讼,称其使用该媒体公司的受版权保护的材料来培训法学硕士。
随着人工智能工具越来越融入日常生活,此类dent凸显了其开发中道德和法律考虑的重要性。无论是保护隐私、确保信息准确,还是避免与敏感数据相关的故障,OpenAI 等公司都面临着在完善技术的同时建立信任的任务。这些挑战提醒我们,即使是最先进的人工智能系统也需要持续保持警惕,以解决技术、道德和法律方面的复杂性。
从零到 Web3 Pro:您的 90 天职业启动计划