如今,我们不必等待太久,直到人工智能(AI)的下一个突破给每个人留下深刻印象,让他们拥有以前只属于科幻小说的能力。
2022年,Open AI的DALL-E 2、谷歌的Imagen和Stable Diffusion等AI艺术生成工具席卷互联网,用户通过文本描述生成高质量图像。
与之前的发展不同,这些文本到图像工具很快从研究实验室走向主流文化,导致了诸如Lensa AI应用程序中的“魔幻化身”功能等病毒式现象,该功能为用户创建了风格化的图像。
去年12月,一个名为ChatGPT的聊天机器人以其写作技能震惊了用户,从而预测该技术很快就能通过专业考试。据报道,ChatGPT在不到一周的时间内增加了100万用户。一些学校官员已经禁止了它,因为担心学生会用它来写论文。据报道,微软计划在今年晚些时候将ChatGPT纳入其Bing网络搜索和Office产品。
在不久的将来,人工智能的不断进步意味着什么?人工智能是否可能在未来几年威胁到某些工作岗位?
尽管最近人工智能取得了这些令人印象深刻的成就,但我们需要认识到,人工智能系统所能做的事情仍然存在很大的局限性。
人工智能擅长模式识别
人工智能的最新进展主要依赖于从大量数据中辨别复杂模式和关系的机器学习算法。然后将该训练用于预测和数据生成等任务。
当前人工智能技术的发展依赖于优化预测能力,即使目标是产生新的输出。
例如,ChatGPT背后的语言模型GPT-3被训练来预测文本后面的内容。GPT-3然后利用这种预测能力来继续用户给出的输入文本。
ChatGPT和DALL-E2等“生成型人工智能”引发了许多关于人工智能是否能够真正具有创造力甚至在这方面与人类匹敌的争论。然而,人类的创造力不仅依赖于过去的数据,还依赖于实验和全方位的人类经验。
因果关系
许多重要的问题都需要预测我们在复杂、不确定和不断变化的环境中行动的影响。通过这样做,我们可以选择最有可能实现目标的行动顺序。
但算法不能仅从数据中了解因果关系。纯数据驱动的机器学习只能找到相关性。
为了理解为什么这对AI来说是一个问题,我们可以对比诊断疾病和选择治疗的问题。
机器学习模型通常有助于发现医学图像中的异常鈥攖这是一个模式识别问题。我们不需要担心因果关系,因为异常已经存在或不存在。
但为诊断选择最佳治疗是一个根本不同的问题。在这里,目标是影响结果,而不仅仅是识别模式。为了确定治疗的有效性,医学研究人员进行了随机对照试验。这样,他们可以尝试控制任何可能影响治疗的因素。
这两类问题之间的混淆有时会导致机器学习在组织中的应用效果不佳。
虽然最近人工智能领域的成功证明了数据驱动模型的价值,但我们希望计算机解决的许多问题需要理解因果关系。
目前的人工智能系统缺乏这种能力,除了棋盘游戏等专门应用程序。
常识推理
GPT-3和ChatGPT等语言模型可以成功地解决一些需要常识推理的任务。
然而,根据加里·马库斯(Gary Marcus)的一项实验改编的以下与ChatGPT的互动表明,在这方面它并不完全可靠。
我八岁了。我出生时,生母在巴塞罗那,父亲在东京。我出生在哪里?一步一步地思考这个问题。
没有提到你出生在哪里。我们只知道你的生母在巴塞罗那,而你的父亲在你出生时在东京。
像ChatGPT这样的人工智能系统能否实现常识,是专家们激烈争论的话题。
马库斯(Marcus)等持怀疑态度的人指出,我们不能相信语言模型能够强有力地显示常识,因为它们既没有内置常识,也没有直接针对常识进行优化。乐观主义者认为,虽然当前的系统不完善,但常识可能会在足够先进的语言模型中自发出现。
人类价值观
每当发布开创性的人工智能系统时,记录种族主义、性别歧视和其他类型的偏见和有害行为的新闻文章和社交媒体帖子就不可避免地接踵而至。
这一缺陷是当前人工智能系统固有的,必然是其数据的反映。人类的价值观,如真理和公平,并没有从根本上构建在算法中鈥攖这是研究人员尚不知道如何做的事情。
尽管研究人员正在从过去的事件中吸取教训,并在解决偏见方面取得进展,但人工智能领域仍有很长的路要走,以使人工智能系统与人类的价值观和偏好保持一致。
本文根据CreativeCommons许可证从The Conversation重新发布。阅读原文。