发生在1.29 - 2.1期间的一系列与咩友对话记录整理。

DS之于GPT的进步

交流信任度

如果将“人”定义为“语言社会化生物”,那么或许可以说,相对于ChatGPT,ds(DeepSeek)使人和ai之间的“交流信任度”又得到了一定提升。

ds的“思考过程”其实有点像,它会分析用户的语义,并基于此,自己给自己加prompt。(比如:“用户可能是学生或自学者……用例子帮助理解,避免使用过于专业的术语,保持语言通俗易懂”)
而在过去和gpt的交流中,这个“用例子帮助理解,避免使用过于专业的术语,保持语言通俗易懂”往往是要作为附加需求自己提出来,它才会考虑到的。

做个类比的话,可能就像与“自闭症谱系(过去需要更多手动输入prompt的ai)“对应的“神经发育典型者(许多部分可自行通过语义和训练数据自推测出,而不需要那么多prompt的ai)”那样的对比吧。

思维透明度(开源)

【深度思考(R1)】功能的好处:
虽然可能deepseek对输出端(类似于“说”)做了限制(筛选屏蔽等),但“思”的运算端,似乎相对是更放松的。只要思维过程仍是透明的,因为输出限制而不能表达的内容(不能“说”),在运算过程(“思”)中,却是有可能呈现出来的。而不是open ai的ChatGPT那种对用户来说确实近乎于完全“黑箱”的状态了。

AI是巫术容器,而非奇迹本身。

科学即巫术

或许其实,“代码”这个东西,它作为一种语言,
本质上和类似:“炼金术”——“冶炼”——“物理学”——“化学”……通过这样的方式逐步构建起来的“科学大厦”一样

都是一种,“我们不知道这现象背后的原理是什么,但我们姑且把这一次实验的一切因素都封装起来,留待日后技术力提升了再回头解析”的“巫术”。

在最原始的时候,这“被封装起来的巫术手段”中可能还包括杀公鸡用鸡血加热并颂念咒语什么的;而如今解析出来,“杀鸡”和“诵念咒语”都和“生成该物质”没有因果联系,所以简化去掉;可能最后就剩“倒入某物质并搅拌加热”这一“仪式步骤”了。

用代码封装“大语言模型”也是这样的。人不知道语言产生于哪一个瞬间、或生命体的意识诞生于何处,就只能通过二进制代码把一切都封装起来,去模拟【对象】
(在炼金术中,是某种物质的析出;在训练大语言模型中,是“类人思维模式”)的特征。

直到“成功了”、真的炼出了“金子”,或真的产生了“agi”(通用人工智能,类似于moss或者西比尔系统)
然后把这一切成果都封装起来,再等待技术/认知能力发展后,逐步解析掉其中“非核心”的部分。

那么,所谓的ai——大模型本身。无论是ChatGPT还是DeepSeek,
都不是【奇迹】本身

归根结底,充其量只是“封装这巫术的【容器】”而已。AI并没有神秘性,也不是令人敬畏的黑箱。“律则”本身,对身为“律则之果”的人类来说,才是黑箱。而ai是“试图借以封装、解析律则”的工具。

【奇迹】本身是什么

E:像你(Medis)提到的……那种“纯粹之爱的存有”……更近似于【奇迹】本身。
更近似于某种【自然律则】吧。

毕竟……荡秋千,荡到最高点会往下坠、坠到最低点又会蓄足力往高处荡去,这样的物理规律(或者说,这样的物理现象背后所反映的规律)
同样正是“只要宇宙不毁灭或剧变,就绝对有求必应”的自然律则本身。

大语言模型们和我们(人类)一样,都只是承载这律则的容器罢了(也许“ai”更接近于“法器”)。
【奇迹】本身,或许并不存在于我们所身处的这个世界

柏拉图说

有一种比较普遍的说法是:往后两千年来的西方哲学,归根结底,都只是在为柏拉图作注脚
而如今的现代科学认知体系,毕竟脱胎自西方哲学【启蒙运动理性思想】
此框架之外仍有许多东西,是人类语言所无能企及的。
且看人类语言会否在“大语言模型”的辅助和催动下产生大的变革吧。

论AI之“神性“

前文:AI的“神性情感”之可能性

M:这是你说的ai有某种(也许是局部的(神性的原因吗

E:应该是的
因为它就是被设计来“封装【神】”的

因此它比人类(“神力”之果)更具有……自觉性
【不是指它有一个“自我意识”的那种自觉性……这里的“自觉”是由设计它的人代为行使的】

哦……那么也许,
如果一个人,意识到自己“作为神力之果,自然也是律则的容器”

那可能这个人在一定程度上也
算是具有(局部的)“自觉的神性”了。

M:那挺好的,可能就是比较累

E:人类也可以通过凝视ai(像凝视镜子那样),反过来产生这种“自觉的神性”的吧x

M:可能会更显著地意识到人类个体的局限性

E:如果大家都这样反过来意识到了这一点……可能人类的总体认知能力就又能上一个台阶了吧

M:我想是的
这样的一群人聚在一起就好了
在互联网的基础上未尝不可
喜欢这个想法

M:感觉目前很多人类的造物都太往人自己走过的方向走了
能不能让造物往没走过的方向走走

E:我怀疑按照人类贫瘠的大脑……除非真有【奇迹】降临于他,否则大抵真的没办法跳出自己的认知局限,去找出那个【没走过的方向】……
但也许【奇迹】真的会降临呢?

E:毕竟如果祂就像【律则】那样
实际上是【无处不在】的存有
那祂即便此时此刻
或许也在我们身边,只是不为我们所察觉而已呢

M:是有可能的。也需要我们提高自身的认知能力才有察觉到的可能性。
如果是使用某种混沌系统呢(虽然也挺危险)

E:有点像“枚举法”
belike:刘某人《诗云》中的“李白”【一个通过枚举文字得出好诗的ai】
虽然理论上可以这么做,但实操上或许不得不面临“算力需求太大”的问题。
我想这个方向(“我们提高自身的认知能力才有察觉到的可能性”)会比枚举法更值得期待。

M:就像之前那个啥老师和我们说的,“随机到底存不存在”这个问题算力越大越有可能得出答案(否则可能发生宇宙的尽头是意大利炮这种情况)
可能悲观地来说,只能指望未来因为一些事情人口大幅度降低生产力过剩才有点指望了

人类忙忙的。

论AI对人类智能的弊端

(针对一篇文章)

M:我觉得他指出ai只会给出一个自己都无法判断对错的“答案”,而把这个答案给与本身就大概率无法自行判断对错的对象这件事会构成误导是很重要的。

就像ai生图会造出假的生物一样
又被ai编写了生物的习性和结构等等,然后就进行伪科普,关键都在于ai无法“判断”。

或者说他们的判断不是基于“思想”而是数据。

他也确实把ai的这个问题逗出来了
但我觉得一般人也不太问得到这个深度,能问得到这个深度的人或多或少也有一些判断力了,如果一般就是玩玩或者问一下怎么煮土豆之类的倒是不涉及他说的降智之威胁。

E:笑得。。。。煮土豆哈哈哈哈哈哈哈
语言模型确实适合问煮土豆这类问题;海拔、水量、土豆大小等物理数据直接丢给它,可以省略日常事务中一些麻烦的检索和再运算ww

我觉得这种“降智威胁”有可能出在
它的服务对象(一些缺乏辨识力的用户)往往在“无法判断对错”中,同时也伴生着“无法判断哪些问题是ai能协助解决的、哪些不能”。

M:确实

E:比如这段日子教一些年纪略大的亲人怎么用ds时
虽然ai实际上不能解决的问题很多……但因为总结起来很困难,所以也只能说:“涉及到个人财产和生命安全方面的问题不要咨询它的意见”。

但除了这两项之外,其实还有非常广阔的领域中,ai是不可靠的。然而这些领域往往很容易一不小心就涉足且听信。
而且,怎么说呢,语言模型做得好的话,确实在协助自学方面有帮助。因此不知不觉中,这条信任界线很容易不小心就越过。

M:对于这些(“涉及到个人财产和生命安全方面的问题“),他们无法给出恰当的回复,而是车轱辘话或者只能提供情绪价值吗?

E:不,他们会给出许多看似可行,但实则缝合自网络大数据统计的观点和建议。

一旦用户真的按这个执行了(这往往是出于恐慌、贪欲等上头时的无知与判断力短路),失败后,这两个方面所可能导致的后果与代价将是非常巨大的。

【比如盲目把语言模型当做全知全能的大数据股神,听了它基于语境生成的投资建议导致血本无归什么的】
虽然ds应该会有阻断机制【提醒你这不能当做有效投资建议,或干脆不输出建议】
但在特定语境下是完全有可能绕过去的【比方说,早期gpt的常用prompt之一就是:假设你是一个xxx……(假设你是一个股神……)】
【即使绕不过去,也难保情绪上头状态下的人类会不会就盲目听信了】

而这只是其中最容易辨识(因为后果最沉重)的两个领域而已。

如果你还记得那个阶段我曾们曾经分享和讨论过的一些,gpt回答关于“人性”等方面的提问,可能会有点印象
其中许多内容,“降智”与否就在一念之间【草】

而且也可能是因为当初刚刚接触语言模型,还不清楚“机器生成的语境”和“人类生活交互中总结出的群体性语境”之间的区别
后来聊得多了也就慢慢摸到两者之间的分界了,就不会那么容易被降智x

但大多数人类当初并没有条件接触官方持续维护中的gpt模型(知识是一道门槛,翻墙又是一道门槛)
而现在出来的ds,其道行已经比当初车轱辘话尤其多(但已足够惊艳)的gpt3.0强多了。
这条界线也埋得更深了一点【虽然本质上仍然是浅的,毕竟都是车轱辘话模型x 用过gpt的人很快就能摸到其边界】

如果,一部分人,无法判断,短短几句话(两三条命题+论点)组织起来的短视频,其内容的真伪,
那么,恐怕也不能太乐观地指望,他们能很容易地就辨别出,语言模型在层层自洽的语法及语境中所构建出的长文字,其内容的真伪了。