【NO132 - 231117】
MIT的研究人员 John McCoy 与 Tomer Ullman 提出了一个“迷你图灵测试”,它基本上是这样的:
假设你现在被抓到了一个房间里面进行审问,你身边有一个可能是高级AI机器人的家伙。公平的审问者需要你们各给出唯一一个词典里面有的英文单词,来让其判定你是不是什么高精尖AI,然后他就会将你们两个中更像AI的那个烧死——那么究竟是哪一个词,能让你最大程度地被认作人类,免遭一死呢?
他们自然实际做了这个实验——他们找了936个受试者,向其提了上面的问题,得到的答案在左边。
如各位所见(这里原来有一张图,但图里面有几个单词可能触发了什么导致死活传不上去,你们就看看(用一用?)这个朱鹮妖怪罢),排名靠前的几个单词分别为“love” (134), “compassion” (33), “human” (30), 以及“please” (25)。从多样性的角度来说,这可不是什么好兆头。
然后,他们自然又找了2405人,也是给每人讲了开头的故事,然后随机给他们看一组答案,决定要不要烧。
最后的结果是,虽然爱啊同情啊人类啊请啊固然会让很多人放过一码,但大家一致认为,最像人类的那个答案是poop。
果然人类的本质就是这些屎尿屁玩笑。
当然,两位研究者也承认,这最多只能算一个思想实验,决然不能当成实际检测AI智能的东西。所以看看就好,比如有些人说了“supercalifragilisticexpialidocious”作为答案,虽然表面上一看这很富有创意,但一般人不靠外部辅助真的能第一次将它拼对么(哪怕它其实只是一堆词根串起来)?
这个研究的论文以及相关数据可以在Github的tomeru/minimalTuring这个repo看到。