你是一名生物化学专业的学生。教授给你布置了一篇简单的家庭作业,让你谈谈生物技术的五个好处和坏处。往常,你得花两个小时才能完成这样一篇小论文。偶然间你得知,拿人工智能(AI)来生成一篇可以上交的论文只用二十分钟。你会怎么做?用还是不用,这是一个问题。
Reddit用户“innovate_rye”选择使用AI,教授还给他打了“A”。他不是孤例,还有人做大做强,不仅用AI解决了自己的家庭作业,还靠帮同学写作业赚了100美金。
AI的论文究竟写得怎么样?
AI能写短故事。艺术家苗颖曾用GPT-3写了一个动画剧本:一只蟑螂爱上了负责监控它的AI,这个有着电影明星外貌的AI偷了村里的能量石,于是蟑螂就开始挖比特币来救他。AI擅长写这样的故事,荒唐中带点有趣。苗颖接受《连线》采访时说道:“我喜欢的关于比特币的那部分是AI写的,我想是因为它(比特币)在去年很流行。”
她不改动AI生成的文字。GPT-3先是生成了一个短故事,然后她将其分解成若干部分,重新反馈给GPT-3,于是生成了更多内容。她从每个变体中选取了最合理的内容,组成了剧本。
这好比在做拼贴画,AI负责生成材料,人类负责把材料拼成一个有意义的整体。如果我们拿AI来写论文,它真的会像传闻中那样可靠吗?
同样的流程,以《什么是意识?能创造艺术的人工智能有意识吗?》为题,澎湃新闻记者用AI写作工具Rytr生成了一篇一千字出头的小论文。它的结构看起来有模有样,分为五部分:“什么是意识”、“哲学中的意识”、“科学中的意识”、“我们一直听说的AI机器意识是什么?”和“机器会有意识吗?这对人类意味着什么?”。
当我们戴上眼镜,像一位严苛的老师那样仔细追究逻辑、核查事实,还是能找到这篇文章不对劲的地方。
和许多AI写作工具一样,Rytr使用了GPT-3,靠开放网络上的大量文本哺育成熟,“由于缺乏长期记忆,它以意识流自由联想的方式把之前读取的大量内容剪切和粘贴在一起”,和GPT-3合著了一本书的作者Alley Wurds这样评价道。
你可以把GPT-3想成一个博学但记忆混乱的老教授,它或许曾在好几篇探讨“人工智能是否存在意识?”的文章里读到了:图灵在1950年发表了文章《机器能思考吗?》,提出了著名的“图灵测试”,简单来说,如果机器能在交谈中伪装成人类,使与它对谈的人感到混淆,那么可以判定这个机器拥有了智能;哲学家约翰·瑟尔(John Searle)在1980年提出了“中文房间”的思想实验,用来反驳以“图灵测试”为代表的强人工智能的观点。
GPT-3的记忆如同一个软面团,事实、词句都被揉在一起,分不清上下左右,于是它在纸上的空白处写下:“机器意识是由哲学家约翰·瑟尔在1990年首次提出的,当时他发表了论文《机器能思考吗?》。”