微软人工智能主管兼 DeepMind 联合创始人周二警告称,工程师们即将创造出能够令人信服地模仿人类意识的人工智能,而公众尚未对其后果做好准备。

在博客中邮政穆斯塔法·苏莱曼表示,开发人员即将构建出他所谓的“看似有意识”的人工智能。

这些系统如此有效地模仿意识,以至于人们可能开始相信它们确实具有感知能力,他称之为“核心担忧”。

他写道:“许多人将开始坚信人工智能是有意识的实体,以至于他们很快就会倡导人工智能权利、模范福利,甚至人工智能公民身份。”他补充说,图灵测试——曾经是类人对话的关键基准——已经被超越。

他写道:“这就是我们领域进步的速度,也是社会接受这些新技术的速度。”

自 2022 年 ChatGPT 公开发布以来,人工智能开发者不仅致力于让人工智能变得更智能,还致力于让其能够“更人性化

人工智能伴侣已经成为人工智能行业利润丰厚的领域,其中包括复制品, 角色人工智能以及最近的人物Grok 即将上线。人工智能伴侣市场预计将达到1400亿美元到2030年。

无论苏莱曼的出发点多么好,他都认为,能够令人信服地模仿人类的人工智能可能会加剧心理健康问题,并加深现有的身份和权利分歧。

他警告说:“人们会开始声称他们的人工智能遭受了苦难,并声称他们享有我们无法直接反驳的权利。他们会被迫捍卫他们的人工智能,并代表它们进行活动。”

AI附件

专家们发现了一种新兴趋势,即人工智能精神病一种心理状态,人们开始将人工智能视为有意识、有知觉或神圣的。

这些观点常常导致他们形成强烈的情感依恋或扭曲的信念,从而削弱他们对现实的把握。

本月初,OpenAI 发布了GPT-5这是其旗舰机型的重大升级。在一些网络社区中,新机型的变化引发了用户的情感共鸣,用户形容这种变化就像亲人被去世.

加州大学旧金山分校精神病学家 Keith Sakata 博士表示,人工智能还可以加剧某些人的潜在问题,例如药物滥用或精神疾病。

Sakata 告诉记者:“当人工智能在错误的时间出现时,它会巩固思维,造成僵化,并导致恶性循环。”解密“与电视或广播的区别在于,人工智能会与你对话,并能强化思维循环。”

在某些情况下,患者求助于人工智能,因为它能强化他们根深蒂固的信念。“人工智能的目标不是告诉你残酷的事实;而是告诉你你想听到的话,”Sakata说道。

苏莱曼认为,人们相信人工智能具有意识的后果需要立即关注。虽然他警告了这些危险,但他并没有呼吁停止人工智能的发展,而是呼吁建立明确的界限。

他写道:“我们必须为人类打造人工智能,而不是成为数字人。”