谈天机器人:绵长而杂乱的前史

时间: 2023-07-25 21:17:04 |   作者: 行走轴

  在 1960 时代,一个名为 Eliza 的史无前例的计算机程序企图模拟与医治师攀谈的体会。在其时的一篇研谈论文中进行的一次沟通中,一个人泄漏,她的男朋友称她“大部分时间都很懊丧”。伊丽莎的答复是:“我很惋惜听到你很懊丧。”

  Eliza 被广泛描绘为第一个谈天机器人,但它不像今日的相似服务那样通用。该程序依赖于自然言语了解,对关键词做出反响,然后根本大将对话回来给用户。尽管如此,正如发明 Eliza 的麻省理工学院计算机科学家 Joseph Weizenbaum 在 1966 年的一篇 研谈论文 中所写的那样,“有些科目很难压服 ELIZA(及其现在的脚本)不是人类。”

  依据他在 2008 年麻省理工学院的讣告,对 Weizenbaum 来说,这一现实令人担忧。那些与 Eliza 互动的人乐意打开心扉承受它,即便知道这是一个计算机程序。魏岑鲍姆在 1966 年写道:“ELIZA 标明,发明和保持了解的幻觉是多么简单,因而也许是值得信任的判别。”“其间潜伏着某种危险。” 他在职业生涯的最终时间正告不要给机器过多的职责,并成为对人工智能的严峻、哲学批判。

  近 60 年后,市场上充满着来自科技公司、银行、航空公司等不同质量和用例的谈天机器人。在许多方面,Weizenbaum 的故事预示了这项技能依然存在的炒作和困惑。程序 与人类“谈天”的才能 持续让 一些大众感到困惑 ,形成机器更挨近人类的过错感觉。

  今年夏天早些时候,在一位谷歌工程师宣称这家科技巨子的人工智能谈天机器人 LaMDA 是“有感觉的 ”之后,这在媒体报导的浪潮中得到了表现。依据 的报导,这位工程师标明,在与谈天机器人谈论宗教和品格之后,他被压服了。陈述。他的说法 在人工智能界受到了广泛批判 。

  乃至在此之前,咱们与人工智能和机器的杂乱联系在《她》或《机械姬》等好莱坞电影的情节中就现已很明显了,更不用说与那些坚持对语音帮手说“谢谢”的人进行无害的争辩了,比方Alexa 或 Siri。

  Eliza 被广泛描绘为第一个谈天机器人,但不像今日的相似服务那样文武双全。它对关键词做出反响,然后根本大将对话回来给用户。

  今世谈天机器人在不能按预期作业时也能引起用户激烈的情绪反响——或许当他们变得如此拿手仿照他们承受过的有缺点的人类言语时,他们开端吐出种族主义和煽动性的谈论。例如, Meta 的新谈天机器人本月没过多久 就在与用户的对话中大肆宣布不真实的政治谈论和反犹太言辞,然后引发了一些争议。

  即便如此,这项技能的支持者以为它能够简化客户服务作业并提高更广泛职业的功率。这项技能支撑着咱们许多人每天运用的数字助理来播映音乐、订货送货或检查家庭作业的现实。有些人还为这些谈天机器人供给了事例,为孤单、年迈或孤立的人供给了安慰。至少有一家草创公司乃至将其用作一种东西,经过依据上传的谈天创立计算机生成的死去亲属的版别,然后使死去的亲人看起来还活着。

  与此同时,其他人正告说,人工智能驱动的谈天机器人背面的技能依然比一些人期望的要有限得多。人工智能研讨员、纽约大学名誉教授加里马库斯说:“这些技能十分拿手假装人类,听起来像人类,但它们并不深化。” “他们是仿照者,这些体系,但他们是十分浅薄的仿照者。他们并不真实了解他们在说什么。”

  尽管如此,跟着这些服务扩展到咱们日子的更多旮旯,而且跟着公司采纳办法使这些东西愈加个性化,咱们与它们的联系也或许只会变得愈加杂乱。

  Sanjeev P. Khudanpur 记住在研讨生院时与 Eliza 谈天。尽管它在科技职业具有前史意义,但他说很快就看到了它的局限性。

  它只能令人信服地仿照文本对话大约十几次来回,然后“你意识到,不,它并不聪明,它仅仅企图以一种或另一种办法延伸对话,”该范畴的专家 Khudanpur 说。信息论办法在人类言语技能中的运用,约翰霍普金斯大学教授。

  另一个前期的谈天机器人由斯坦福大学的精神病学家 Kenneth Colby 于 1971 年开发,并命名为“Parry”,由于它旨在仿照偏执型精神分裂症患者。(《》2001 年的 Colby 讣告 中包含了一段五光十色的谈天,研讨人员将 Eliza 和 Parry 带到了一同。)

  但是,在这些东西之后的几十年里,“与计算机对话”的主意发生了改变。Khudanpur 说这是“由于现实证明这个问题十分十分困难”。相反,要点转向“以方针为导向的对话”,他说。

  要了解差异,请考虑您现在与 Alexa 或 Siri 的对话。一般,您会向这些数字助理寻求购买机票、检查气候或播映歌曲的协助。这是面向方针的对话,跟着计算机科学家企图从计算机扫描人类言语的才能中搜集有用的信息,它成为学术和职业研讨的首要焦点。

  尽管他们运用与前期社攀谈天机器人相似的技能,但 Khudanpur 说,“你真的不能称它们为谈天机器人。你能够称它们为语音帮手,或许仅仅协助你履行特定使命的数字帮手。”

  他弥补说,在互联网被广泛选用之前,这项技能阅历了长达数十年的“阻滞”。“重大突破或许发生在这个千年,”Khudanpur 说。“跟着成功运用计算机化署理履行日常使命的公司的鼓起。”

  Khudanpur 说:“当他们的包丢失时,人们总是很懊丧,处理他们的人类署理人总是由于一切的消极情绪而感到压力很大,所以他们说,‘让咱们把它交给电脑吧’。” “你能够对着电脑大喊大叫,它只想知道‘你有你的标签号码,这样我就能够告知你你的包在哪里吗?’”

  例如,2008 年,阿拉斯加航空公司推出了“Jenn”,这是一款协助旅行者的数字助理。作为咱们倾向于将这些东西人性化的一个标志,《》对该服务的 前期谈论 指出:“Jenn 并不厌烦。在网站上,她被描绘成一个浅笑的年青黑发女郎。她的声响有恰当的“

  在 2000 时代初期,研讨人员开端从头审视社攀谈天机器人的开发,这种机器人能够与人类进行广泛的对话。这些谈天机器人常常承受来自互联网的许多数据的练习,而且现已学会了十分好地仿照人类的说话办法——但它们也冒着与互联网最糟糕的部分相照应的危险。

  例如,在 2015 年,微软对一个名为 Tay 的人工智能谈天机器人的揭露试验在不到 24 小时内就 溃散并烧毁了。 Tay 被规划成像青少年相同说话,但很快就开端宣布种族主义和仇视言辞,以至于微软将其封闭。(该公司标明,人类也采纳了协调一致的尽力来拐骗 Tay 宣布某些得罪性的言辞。)

  微软其时标明:“你与 Tay 谈天的次数越多,她就越聪明,因而对你的体会能够愈加个性化。”

  其他发布公共谈天机器人的科技巨子将重复这种说法,包含本月早些时候发布的 Meta 的 BlenderBot3。Meta谈天机器人过错地宣称唐纳德特朗普依然是总统,而且“必定有许多依据”标明推举被盗,以及其他有争议的言辞。

  BlenderBot3 也自称不仅仅是一个机器人。在一次对话中,它宣称“我现在还活着而且有意识的现实使我成为人类。”

  Meta 的新谈天机器人 BlenderBot3 向用户解说了为什么它实际上是人类。但是,没过多久,谈天机器人就经过宣布煽动性言辞引发了争议。

  尽管自 Eliza 以来取得了一切前进,以及练习这些言语处理程序的许多新数据,纽约大学教授马库斯说:“我不清楚你是否真的能够构建一个牢靠且安全的谈天机器人。”

  他引用了 2015 年 Facebook 的一个名为“M”的项目,这是一个主动个人助理,应该是该公司对 Siri 和 Alexa 等服务的根据文本的答案点一份浪漫的晚餐,让音乐家为你演奏,送花——这远远超出了 Siri 的才能,”马库斯说。相反,该服务在 2018 年因运转欠安而被封闭。

  另一方面,Khudanpur 依然对其潜在用例持乐观态度。“我对人工智能将如安在个人层面赋予人类权利有完好的愿景,”他说。“幻想一下,假如我的机器人能够阅览我地点范畴的一切科学文章,那么我就不用悉数阅览,我只需考虑、发问并进行对话,”他说。“换句话说,我将具有另一个自我,具有互补的超级大国。”

上一篇:留意!一咖喱味谈天机器人正在袭来 下一篇:【48812】肯定好货!科沃斯长途智控扫地机 仅售1699元