关于谷歌是否构建了具有类人意识的技术的内部斗争已经蔓延到了公开领域,暴露了人工智能固有的野心和风险,这些都是真实存在的。
这家硅谷巨头上周停职了一名工程师,他辩称该公司的人工智能系统LaMDA似乎“有知觉”,谷歌官方不同意这一说法。
几位专家告诉法新社,他们也对意识的说法表示高度怀疑,但表示人性和野心很容易混淆这个问题。
华盛顿大学语言学教授艾米丽·本德(EmilyM.Bender)说:“问题是……当我们遇到属于我们所说语言的字串时,我们就能理解它们。”。
“我们正在做的工作是想象一个不存在的大脑,”她补充道。
LaMDA是一个功能强大的系统,它使用先进的模型和超过1.5万亿单词的训练,能够模拟人们在书面聊天中的交流方式。
根据谷歌的解释,该系统建立在一个模型上,该模型观察单词之间的关系,然后预测它认为在句子或段落中接下来会出现什么单词。
北卡罗莱纳大学教堂山分校计算机科学助理教授Shashank Srivastava说:“仅仅是模式匹配,还处于某种程度上。”。
他补充道:“当然,你可以找到一些看似有意义的对话,一些非常有创意的文本。但在许多情况下,这些文本会很快转移。”。
尽管如此,分配意识还是很棘手。
它经常涉及图灵测试之类的基准测试,如果一个人与一台机器进行了书面聊天,但无法判断,那么机器就被认为通过了图灵测试。
多伦多大学哲学教授马克·金威尔(MarkKingwell)表示:“对于2022年我们这里的任何一款人工智能来说,这其实是一个相当容易的测试。”。
“更难的测试是上下文测试,当前系统似乎会被常识知识或背景想法绊倒鈥攖他补充道:“算法很难处理这些事情。”。
'没有简单的答案'
人工智能在科技界内外都是一个微妙的话题,一个既能让人惊讶又有点不舒服的话题。
谷歌在一份声明中迅速而坚定地淡化了拉姆达是否有自我意识。
该公司表示:“这些系统模仿了数百万句话中的交流类型,可以对任何幻想的话题进行即兴发挥。”。
它补充道:“数百名研究人员和工程师与LaMDA进行了交谈,我们不知道还有其他人做出……广泛的断言,或将LaMDA拟人化。”。
至少一些专家将谷歌的回应视为试图关闭一个重要话题的对话。
学者苏珊·施耐德(SusanSchneider)表示:“我认为公众对这一问题的讨论极其重要,因为公众了解这一问题的棘手程度是关键。”。
佛罗里达大西洋大学精神未来中心的创始主任补充道:“对于机器中的意识问题,没有简单的答案。”。
正如语言学教授本德所说,在人们“沉浸在大量人工智能炒作中”的时候,研究这个话题的人也可能缺乏怀疑。
她补充道:“大量的资金被投入到这方面。因此,从事这项工作的人有一个非常强烈的信号,即他们正在做一些重要而真实的事情”,这导致他们不一定“保持适当的怀疑态度”。
近年来,人工智能也遭遇了糟糕的决策鈥擝恩德引用了一项研究,该研究发现,语言模型可以从互联网培训中发现种族主义和反移民偏见。
多伦多大学教授金威尔(Kingwell)表示,人工智能感知的问题部分是“勇敢的新世界”和部分是“1984”,这两部反乌托邦作品涉及技术和人类自由等问题。
他补充道:“我认为,对于很多人来说,他们真的不知道该怎么办,因此感到焦虑。”。
漏 2022年AFP