人生需要蓝军:让AI把你气到想砸电脑
昨天看见一个趣味测试:图片中的墙上的两条黑线一样长吗?
你可能知道答案,两根黑色线条一样长。但是,眼睛还是强烈地告诉你,右边的黑线更长。
直到我将背景抹去,眼睛才会发现两根线一样长。
这个现象是1889年德国心理学家发现并以其名字命名的“缪勒-莱尔错觉”。
“缪勒-莱尔错觉”为什么会发生?
因为,我们的大脑是预测机器,不是照相机。
我们所见所感,均是外界感受与主动预测的结合,而不是真实世界的被动体现。
所以,即使知道两根线一样长,我们还是会被主动预测带偏。
只到有打破原有结构的新信息输入,大脑调用了新的预测,我们才能更新的判断。
让人不安的事实是,即使大脑知道答案,依然看不见真相。
很直观的视觉尚且产生预测错觉,何况是脑海信念。我们很多时候高估自己的理性了。
那个呐喊“知识就是力量”的培根也说,“人类理解力一旦采纳了一种意见……就会迫使一切其他事物来支持、来强合于那个意见。”
我们的人生也充满“缪勒-莱尔错觉”般的执念。
靠近真相是很多人的信条,教员的哲学中,“实事求是”是根基之一。
虽然撞南墙是最好的纠正执念的方式,但是代价太大。
蓝军不是摧毁性的敌人,通过模拟对抗,进行建设性纠偏。
诤友、咨询师、私董会都是蓝军的形式,但是成本很高。
现在出现了一种新的可能:AI。
经纬中国和灵性基金创始人邵亦波的去年对AI的蓝军价值有一个精彩的比喻——
镜子很简单,也能让人从其中确立自我,何况更智能的AI能够给到的反馈呢?
不过,AI的关键机制是RLHF(人类反馈强化学习),对话很容易变得谄媚迎合,不仅没有打破执念,反而制造了“情绪茧房”,让人更在自己的世界中。
我们需要让AI置换掉“助手”的语境,避免迎合,更避免为否定而否定的蓝军。
AI扮演优秀的南郡,需要具体的反对角色,用“事前验尸”策略讨论为什么会失败,注意借用AI的逻辑分析而非幻化的事实……
当AI用真相戳穿你,让你想砸掉电脑,说明你找到了自己的蓝军。
📍 ( 2025 人生战略观察 第21次 / 还剩9次,更多N=1的人生实验见【开亮人生·实验室】星球https://mp.weixin.qq.com/s/nMcYb_oOjTbhKFdJBSg6xA )
![[../../../../attach/img/Ge1ip8k11ip8k1.png]]