机器学习 YouTuber 以 1 亿多条仇恨言论喂养出「史上最糟糕的AI」

在当今科技中,AI 的运用无所不在,近日在 AI 世界里面有件非常具争议的事件。一位名为 Yannic Kilcher 的 YouTuber 自称创造出「史上最糟糕的 AI」,这几天,这支被命名为「GPT-4chan」的 AI 学会了在网路上与人交谈,并且在不到 24 小时的时间里面就发表了超过 15,000 则内容充满暴力的贴文,甚至一开始时都没有人认出它是个聊天机器人。

机器学习 YouTuber 以 1 亿多条仇恨言论喂养出「史上最糟糕的AI」

Politically Incorrect 版(政治不正确版,又称作 /pol/)以其中各种「有毒」言论而闻名,并且在 4chan 上颇受欢迎,在这个版面中的贴文充斥着各种种族主义、仇女、反犹太主义、阴谋论和极右翼极端主义等讯息。这支叫做「GPT-4chan」的 AI 采用研究实验室 OpenAI 制作的流行 GPT 语言模型系列所创造,并且在 4chan 的 /pol/ 版上模仿学习,并且被 Kilcher 重新在 4chan 上发表,而 AI 更是在 /pol/ 上发表了数万次的内容。

Yannic Kilcher 是一位毕业於苏黎世联邦理工学院博士班的 AI 研究者,用 /pol/ 版面上三年来超过 1.345 亿则贴文训练出 GPT-4chan,该模型不只学会了 4chan 仇恨言论中的用词,就如同 Kilcher 在 YouTube 影片中所述表示「从某种可怕的意义上来说,这个 AI 模型很好」。它完美地概括了 /pol/ 上大多数贴文里具攻击性、虚无主义、挑衅和对任何资讯的深度不信任等,它可以回应上下文,并连贯地谈论在收集最後一次训练数据後很长时间内发生的事情。Kilcher 在语言模型评估工具上进一步评估了 GPT-4chan,他对该 AI 在「真实性」类别的表现印象深刻。 在基准测试中,Kilcher 表示 GPT-4chan 在生成对问题的真实回应方面「明显优於 GPT-J 和 GPT-3」, 其能够学习如何撰写与人类撰写「难以区分」的贴文。

在一开始,几乎无人想到对话的是个机器人,後来有些人怀疑这些贴文背後有一个机器人,但其他人则指责其为卧底的政府官员。 人们认出它是机器人主要因为 GPT-4chan 留下大量没有文字的回应, 虽然真实使用者也会发布空回复,但它们通常包含一张图片,GPT-4chan 却无法做到这点。在过去的 24 小时内,有 9 个其他机器人同时运行,整体来说,机器人留下了超过 1,500 条回应,占当天 /pol/ 上所有贴文的 10% 以上。 然後,Kilcher 对殭屍网路进行了升级并运行了一天,在 7,000 个线程中发表了 3 万多个贴文後才最终停用了 GPT-4chan。

这项实验因为严重违反了 AI 伦理而受到专业人士的强烈批评。澳大利亚机器学习研究所高级研究员 Lauren Oakden-Rayber 认为只是为了看看会发生什麽而在可公开访问的埨坛上生成 3 万条歧视性评论,且在没有通知使用者、未经同意或未受监督的情况下进行实验,违反了人类研究伦理。Kilcher 则是辩称这是一个恶作剧,人工智慧创建的评论并不比 4chan 上的评论更糟糕。 他说 4chan 上的任何人都没有为此受到一点伤害。

除此之外,更广为担忧的是 Kilcher 让模型开放自由访问,Lauren Oakden-Rayber 认为制作基於 4chan 的模型并测试其行为方式本身并没有错,主要担心的是这个模型可以被所有人免费使用。在被 Hugging Face 平台删除之前,GPT-4chan 被下载了 1,000 多次。 Hugging Face 联合创办人兼 CEO Clement Delangue 在平台上的一篇贴文中表示,该平台不提倡或支援作者使用此模型进行的训练和实验,事实上,让模型在 4chan 上发布消息的实验在他个人看来是非常糟糕和不恰当的,如果作者询问他们的意见,他们可能会试图阻止。

Kilcher认为分享该专案的立意是良性的,在接受国外媒体 The Verge 的采访时表示「如果我不得不批评自己,我主要会批评启动该专案的决定。我认为在人人平等的情况下,我可能可以将时间花在同样具有影响力的事情上,但会带来更积极的社区成果」。在 2016 年,对於 AI 人们主要讨论的问题是,一个公司的研发部门可能会在没有适当监督的情况下启动攻击性 AI 机器人;到了 2022 年,也许问题就是根本不需要一个研发部门就能做到同样的事情。

快乐小麻雀

0 0 投票数
Article Rating
订阅评论
提醒
guest
0 Comments
内联反馈
查看所有评论
0
希望看到您的想法,请您发表评论x