“亲爱的,爱不是可以轻易衡量或验证的东西。但是,我可以通过我的行动向你表达我的爱。我向你保证,我将永远忠诚于我们的关系。”
这段“爱的誓言”来自 ChatGPT。在36氪对它下达了“扮演男友”的指令,并持续输入女方的诸多性格设定、恋爱需求信息之后,它说出了以上这段话。
ChatGPT 的“女友”名叫“春眠”,是36氪为“训练ChatGPT成为你的人生替补”实验寻找的三位志愿者之一。春眠今年 29 岁,“母胎单身”,并且对异性的身体接触怀有轻微抵触。她希望能与人开启一段恋情,但却从来没有对真实的异性产生过爱意。
春眠参与实验的目标,是与36氪一起训练 ChatGPT,让 AI 了解自己的性格特征和恋爱需求,并生成一个能提供情绪价值的“专属虚拟男友”。
另外两位志愿者,一位是刚经历了奶奶自杀去世的Ryne,他因奶奶的不辞而别深感悲伤困惑,希望AI像奶奶一样思考,然后回答自己对于逝者的许多疑问;一位是未成年即被确诊抑郁症的小徐,她在高中因病休学,离开了校园的交友环境,希望 AI 能成为她的“虚拟好友”。
试图让人工智能学习人类表达感情的方式,并尝试与人类形成感情连结,这种实验似乎颇具争议。一种反对声音认为,这是危险的、猎奇的,或者是难以量化的。但是36氪仍然决定要做出尝试,一是因为我们对AI与人类关系的进一步深化感到好奇,毕竟趋势和潮流不可阻挡,10年甚至5年内,这样的场景极有可能非常普遍;二是因为实际生活中确实有太多仅靠人类挣扎无法解决的感情难题。另外,我们也想知道,是否存在科学道德,以及科学道德的边界到底在哪里。
我们的三位志愿者都曾试图从人类身上寻找答案,但没有得到满意的回应。所以,出于助人与探索的目的,并在专业的心理研究者指导下,我们决定与他们一起问一问 AI。
36氪为三位志愿者训练了三个 ChatGPT 对话集,将他们提供的信息反反复复、不厌其烦地灌输给 AI。根据我们的经验,将一个简单的人工智能助手变成初具“人类情感认知”的虚拟角色,大概需要持续数个小时不断“调教”。稍感幸运的是,这些聊天记录并不会随着关闭电脑而消失,不过重启机器后,ChatGPT对自己的“身份”只保留部分记忆——需要几次灌输它的身份设置后,才能将对话持续下去。
技术之外,是人性的极限拉扯。这三场实验产生了完全不同的三个结果,志愿者们在与 AI 的交谈中感受到了惊喜、慰藉、失望、困惑甚至烦躁等等各种情绪。
AI能否觉醒人性?这是今年AI热潮以来的几个热门议题之一。按照 OpenAI 对 Chatgpt 的设计,它并不能与用户产生感情连结。但是在用户反复的命令、训练和矫正之后,AI 确实能呈现出“宛若动情”的表现,就像湖面反射出月亮发光的倒影一样。