与ChatGPT相伴

从ChatGPT开放以来已经有近三个月了,期间经过了几次跃进式的迭代,从GPT-3.5到GPT-4,到最近的联网和插件版GPT-4,再到ChatGPT手机app的推出。与它一同大跃进的,还有其他众多垂类生成式人工智能,图像的,声音的……

这几天拿到姜宇辉老师新修订的《千高原》译本,顺便上B站看了看他在万圣书园的分享会,他说自己彻底地批判元宇宙而热情地拥抱ChatGPT。我有所同感,想着来总结分享一下我这几个月与ChatGPT相伴的心得。

从三月开始,我一直都在测试ChatGPT的功能与应用场景,从一开始的陌生、不习惯,到今天我基本每天都在用它,ChatGPT已经成了我非常得力的助手,帮我处理文档,查找资料,提炼摘要。我反省式地尝试每种与ChatGPT新的交互模式,从翻译,到搜索,到提问,到聊天,到辩论……每种新的交互模式都是一次机器对我的“驯化”,改变我对数据和互联网的使用习惯。但显而易见的,我作为个体无法驯化ChatGPT,只有作为总体的人类数据可以。所以在这种人机游戏中,我确实是奴隶,用得越多,奴性越强。

但我与姜的观点基本一致,在我“亲切”地“被驯化”这几十天后,我热情地拥抱这种后人类的人机未来,哪怕它将导致旧人类的毁灭。

媒体对ChatGPT大惊小怪的呼叫中,一种是无脑彩虹屁,每天都想搞个大新闻;另一种是充满了恐惧与警惕,害怕人工智能取代人类。这两种声音都没什么太大价值。包括很多作出评论的学者在内,实际上很多人只是站在场外看戏。要真的想知道ChatGPT对我们会造成什么影响,必须亲自去深度用用看。

姜的简要分享里提到两个论点:1. ChatGPT的出现,使得人类被要求提高提问题的能力。这个人工智能所表现出的能力高低,与提问者的能力高低相关。

这一点无需赘述,用过就知道。与姜辩论的另一位老师持人本主义的立场,质疑道:但ChatGPT对你提问水平的要求,也是一种要求符合机器逻辑、计算逻辑的,你的提问能力哪怕被训练提高了,也是一种机器的规训。

这种反驳显得外行了,这便是我说的,很多人批判之前明显没有真正深度使用过ChatGPT。引用特德·姜的比喻非常合适,ChatGPT就是一张JPG格式的人类语言模型。认为它是“机器的”,“计算的”,实际上对生成式人工智能已是一种很肤浅的认识,ChatGPT的语言理解能力目前就是从人类中来,到人类中去。你和这种级别的人工智能对话,就是在和镜子里的人类甚至是你自己对话。而且它显然已经比大多数人类更加理性和智能。再者,现在还害怕机器的规训?我们的身心不是早就被各种现代机器规训了吗?

2. 人的未来就是这种人机结合,ChatGPT就是你的义肢。如果从尼采或者德勒兹的立场来看,人类生命的形式还有很巨大的潜能。通过装配不同的义肢,人类将获得不同的能力,如同机器一般。

重要的不是人类,而是生命。我们曾经所定义的“人类”,实际上对生命而言是一种束缚。未来一定是《攻壳机动队》里那种赛博人类,马上就能看到了。至于赛博后是否会朋克,或许也会,但那不一定是老一辈人眼中的“人性沦丧”,而是一种新的主体性建立,也将有新的伦理道德。

以上便是姜简要的两个观点,我也同意。这里不是说人类能从中绝对地受益,任何技术都是双刃剑,但至少你从这项技术里看到了一种解放新世纪的力量,如同蒸汽机和电气,以及互联网技术,都有可能激活我们很多新思想。简言之,除了对旧时代消逝的惆怅,你还能看到希望。没有希望才是真正的绝望。

之后是我想要补充的两点:3. ChatGPT除了提高人的提问能力,另一个更重要的是对判断力(judgement)有所要求。你是否能够判断ChatGPT给到你信息的价值,你是否能够判断它在说胡话?

我现在和ChatGPT联手,配合Google翻译还有搜索引擎,能够比之前更大量和高效地寻找我想研究的主题相关的档案和文献,比如我最近在完善的克里斯·马克中文页面:https://lwk.ffmm.com/features/chris-marker-china,还有第一次世界大战的历史,以及其他有时候我心血来潮感兴趣的内容。

在研究工作中,它的角色是帮我去寻找线索,提供材料,像一个兢兢业业的高学历研究助手,而我就像个老板,翘着二郎腿审阅它递给我的材料,然后说yes or no,并在它给到有用的参考文献中顺藤摸瓜,再扔给它一些新的线索,打发它继续去寻找材料。找材料这种前期的体力活,ChatGPT-4联网后干起来确实比人效率高很多,我们合作得很愉快。这个过程里,我的作用就是判断。我之所以能下判断因为我有一定的知识和经验积累,越熟悉的领域,判断力越强,毋庸置疑。

我会认为未来的教育将彻底被ChatGPT以及之后的人工智能改变,而教育的重点一定要放到培养批判性思维上,批判性思维的两个体现:一个是会问好问题,另一个就是能作出理性的判断。很多人既不会提问题,也不敢下判断。因为现实生活中,判断意味着承担责任,不如老老实实听话,此乃无判断的勇气。要么就是凭借情绪和屁股妄下判断,缺乏支撑理性判断背后所需要的逻辑和经验,此乃无判断的智力。今天中国很多的教育方法都必须被抛弃,否则都是教出这样的人。

4. ChatGPT实际上是一个很好的理性对话者。这也是我最近才逐渐开始这么使用,尝试与它交谈来刺激我的思考,乃至推演我的思辨。比如就拿《千高原》举例,德勒兹提出要“n-1“而非“n+1”地走向“多元”,我便想到性别议题,比如今天美国的政策里设置越来越多的性别分类,以满足越来越细分的人群需求。那未来有一天是否就会有几百上千种性别,像蘑菇一样,这就类似于“n+1”的多元,这种是否是种伪多元,我们的路是否走错了?

我想跟它讨论讨论当下的性别设置议题,但显而易见,这很容易碰到政治正确红线,日常生活中你都得小心翼翼避免跟人在这个问题上讨论,更别说没几个人读过《千高原》,现实生活中你很难找到能跟你在这个特定话题上平等交流的人。但ChatGPT可以,它不会被冒犯,不会情绪被带跑,而且它显然读过你提到的各种材料,没读过它也可以联网快速读完。它可以有理有据地跟你讨论。这场景像极了古希腊苏格拉底式的辩论,还很符合罗尔斯提出的“无知之幕”。你可以大胆地跟他假设各种极端情况,不用担心政治不正确,一切都是基于理性的交流。你可以跟它提出平时你得小心提出的假设,比如人权是否具有天然合法性等等(不好意思,我有很多政治不正确的假设)。

但所有这一切交流,都不是为了从ChatGPT那里得到答案,你就像和它打一场乒乓球赛,它专门回击你发来的球,在这种对话运动中,你能把自己思维里的假设和奇思妙想推演到更深处。



与ChatGPT-4相伴这几个月里,我逐渐找到了与它合适的相处模式。一开始我对这种人工智能的出现是报以悲观态度的,尤其是这种语言类人工智能,因为语言将深刻影响我们的心智;操控语言,很大程度就操控了人的思想。

另外,图像类生成式人工智能,必然导致假图泛滥。未来耳听为虚,眼见也不为实。这种图像的欺骗性早在20世纪戈达尔和克里斯·马克等人就激烈批判过,现在更是如马克所说,图像仅仅是图像本身。

一个语言,一个图像,直接可以把你骗得团团转。

但这几个月逐渐习惯ChatGPT这条义肢后,从个人来看,我认为更重要的是如何去迎接这种人机结合的赛博未来,以及寻找良好的合作模式,处理好数据安全问题,并拥有工具反思——使用任何一项现代技术都需要这种工具反思,以防被工具反噬)。今天的人类和过去的人类,早已有很大不同,今天的我们其实已经很大程度上被技术改造过了,汽车、手机、互联网等等,都是我们的义肢。从最近的技术来讲,我认为今天使用Notion或者Obsidian这类笔记软件建立数字大脑的人,也已经和不使用的人相比有了很大差异。ChatGPT又是一次技术改造的加速。

假如最后人类完蛋了,那就以另一种方式新生吧,或者一切又归于沉寂。