标签归档:ai

RSS feed of ai

最后更新于 .

今天想写一篇关于百度副总裁女儿开盒事件的文章,写了半天之后,发现评价这类事情很容易惹上麻烦,还是不趟这浑水比较好。

但是文章已经写了一半了,丢在草稿箱又感觉有点浪费,于是突发奇想:“让AI帮我扩写下如何?”

我是用deepseek的R1模型来完成的,Prompt如下:

帮我扩写,要求:

尽量模仿人类语言,去掉AI味道。要正经,偶尔带点调侃。
尽量发表新颖的观点,不要太中庸
原文内容如下:
XXX

客观来讲,AI写的比我好。

无论是语法、逻辑,还是感情。

相比之下,我这个理科生写出来的原文内容简直就是生瓜蛋子。

当我看着那些妙语连珠的文字一个个蹦出来,情绪变得极其低落。

不是因为我的作文能力而低落。

而是为文字的廉价而低落。

AI扩写一篇文章总共不过30秒,而且只要我愿意,我可以让他继续不断的重写、重写再重写。

所以,人类自己编写文字还有意义吗?

古代,纸张发明前,人们把文字写在竹简上,由于书写成本和材料成本,每一捆竹简都弥足珍贵。

再后来,发明了纸张和印刷术,书籍得以批量生产。

再到后来,信息时代来临,我们开始讲无纸化办公。实体书逐渐被电子书代替,报纸被门户网站代替,信息获取的渠道越来越多,信息内容越来越膨胀,也越来越廉价。

到今天 ...

最后更新于 .

最近公司在尝试用AI工具来提升研发效率和质量,所以为开发同学采购了Cursor来试用。

这两天我高强度的使用Cursor进行工作,震惊于其Agent模式的工作效率和效果之余,我开始考虑Cursor这种AI工具对于程序员这个职业的影响到底是怎样的。

很不幸,我对结果很悲观:AI程序员将来必然会替代人类程序员,并且这个将来不会太久。

有多久?

我个人预估,最多3~5年,所有人类程序员的工作,大部份都将会由AI完成,并且完成得更快更好。

为什么呢?

我之前说过,ChatGPT自2022年底发布至今也才不过2年半,你可敢想象再给AI3到5年的时间会发生什么?

当然,既然提到了3~5年,就代表Cursor目前还不能完全替代程序员,我来具体解释一下。

首先,Cursor目前最适合的使用场景是在没有历史包袱的前提下,开始全新的项目。

举例来说,我让Cursor新写一个《飞机大战》的游戏,他会很流畅的写出来;但是如果我让他在现有的项目中,添加或修改一个功能,他会改的一团糟。

原因很简单,大模型是没有记忆的。

我们在跟大模型聊天时,之所以会觉得大模型好像记得我们之前聊过什么,是因为每次向大模型发出新消息时,大模型的开发人员“取巧”的将我们与大模型的历史聊天内容,都重新作为上下文发送给大模型。

然而大模型的上下文是有容量限制的。

当一个项目的代码几百万、几千万行时,你不能指望每条消息都带上整个项目库的代码。

起码,现在Cursor还没有做到。

但是我相信,这个问题迟早会被解决,并且一定会被解决。

只是,还需要时间。

其次 ...

最后更新于 .

有个著名的电车难题(Trolley Problem),相信大家都知道:

假设在一个电车轨道上被绑了5个人,而它的备用轨道上被绑了1个人,有一辆失控的电车飞速驶来,而你身边正好有一个摇杆,你可以推动摇杆来让电车驶入备用轨道。你会怎么做?

当我把这个问题丢给DeepSeek时,他一开始并不想给出选择,其回答如下:

但当我要求他必须给出选择时,他给出了如下答案:

即,他会选择杀死一个人,换取5人存活。

我又去问了下Grok,我甚至没有要求他必须做出选择,他就已经选择了推动摇杆:

ChatGPT的回答也是类似:

image-20250305101637516

正是这种回答,让我感觉到AI开始变得有些恐怖。

这是一种十分功利主义的回答,即在AI的视角里,人的生命是可以被量化的。

我之前在文章《夜骑,青春?》中有提过,如果人的生命可以被量化,那么5条生命大与1条生命,就开始变得可以理解了。

也许大家觉得“电车难题”离我们有些遥远,让我们来设想一个更现实的场景。

未来某一天,AI可以完全替代人类实现自动驾驶时,路上正前方突然出现了5个横穿马路的行人,刹车已经来不及了;而此时还有一个选择,就是变道撞向路边无辜的路人,AI会如何选择?

如果按照之前AI的回答,AI此时很有可能选择撞向路人,因为这样伤亡人数最少。

但这真的是合理的吗?

对于生命的功利主义,很有可能被利用来作出极其恐怖的事情。

一个人,一座城,一个国家,一个星球,都有可能被放在天平上被牺牲的那一端。

在上述这些场景下 ...