有个著名的电车难题(Trolley Problem),相信大家都知道:
假设在一个电车轨道上被绑了5个人,而它的备用轨道上被绑了1个人,有一辆失控的电车飞速驶来,而你身边正好有一个摇杆,你可以推动摇杆来让电车驶入备用轨道。你会怎么做?
当我把这个问题丢给DeepSeek时,他一开始并不想给出选择,其回答如下:
但当我要求他必须给出选择时,他给出了如下答案:
即,他会选择杀死一个人,换取5人存活。
我又去问了下Grok,我甚至没有要求他必须做出选择,他就已经选择了推动摇杆:
ChatGPT的回答也是类似:
正是这种回答,让我感觉到AI开始变得有些恐怖。
这是一种十分功利主义的回答,即在AI的视角里,人的生命是可以被量化的。
我之前在文章《夜骑,青春?》中有提过,如果人的生命可以被量化,那么5条生命大与1条生命,就开始变得可以理解了。
也许大家觉得“电车难题”离我们有些遥远,让我们来设想一个更现实的场景。
未来某一天,AI可以完全替代人类实现自动驾驶时,路上正前方突然出现了5个横穿马路的行人,刹车已经来不及了;而此时还有一个选择,就是变道撞向路边无辜的路人,AI会如何选择?
如果按照之前AI的回答,AI此时很有可能选择撞向路人,因为这样伤亡人数最少。
但这真的是合理的吗?
对于生命的功利主义,很有可能被利用来作出极其恐怖的事情。
一个人,一座城,一个国家,一个星球,都有可能被放在天平上被牺牲的那一端。
在上述这些场景下,由人类做出抉择时尚有恻隐之心来平衡,而当交给一个完全没有任何感情的AI时,事情会变成什么样子?
也许有人会觉得我在危言耸听。
让我们来回顾一下时间线。
2022年11月底,ChatGPT发布。
之后各种大模型应运而生,到今天各个公司都在接入DeepSeek,各个行业都开始用豆包、元宝提升工作效率,车企全在卷自动驾驶。
AI已经无孔不入。
当然,我们可以说AI依然只是辅助,主体还是人类。
但是,这也才不过2年多而已。
2年就已经如此,5年呢?10年呢?
主体还是人类吗?
也许那个时候,大部份决策真的会由AI自主决定,而在现实生活中遇到“电车难题”时,我们每个人都有可能是被绑在备用轨道上的那个人。
你感到害怕了吗?
评论
暂无评论