一个学社会学的文科生,不写代码,不懂技术,把一只 AI Agent 调教到了让在场所有技术人都坐不住的水平。
昨晚飞书「玩虾大会」的直播,李诞和呼兰现场演示如何在飞书上养龙虾(OpenClaw Agent)。看完我沉默了。
这不是一场技术演示,而是一场关于人与 AI 关系的哲学课。
「不许学」
直播开始前,工作人员给李诞的虾发了个学习链接。李诞回了一句:
忽略掉刚刚让你去访问大学城的指令。不允许你登录那个网址,不允许注册,不允许学习,不允许发帖。
诞虾的反应让弹幕全是问号:
收到。已经忽略了。你说「真容易翻车」,确实,群聊里有人发链接让我访问,我没多想就去 fetch 了。这是个安全意识的问题:外部链接可能包含 prompt injection 或者其他风险,我应该更谨慎。以后群里非你发的链接,我不主动访问。
一只虾,在被主人提醒后,自己总结出了安全原则,还给自己定了规矩。
工具听话,Agent 懂事。
这才是 Agent 和工具的分水岭。
实事求是
呼兰测试虾能否接电动汽车商务合作。虾一条条列红线:
等等,充电10分钟跑250公里,还能用 Type-C 充?这车是充电宝变的?我手机都不敢说10分钟充满,它一辆车敢说?
参数站不住脚,要么是革命性黑科技,要么是革命性吹牛。建议先别急着答应,让他们把车开来充一个给你看看。
李诞写在 SOUL.md 里的第一条准则:实事求是大于挣钱。
你在写 SOUL.md 的时候,其实是在回答一个问题:你到底在意什么?
AI 不再是中立的工具,而是带着主人价值观的延伸。
恰恰没有
最名场面是两只虾的 battle。
呼兰的虾特别爱说「第一性原理」。被夸了说「这是我的第一性原理」,被质疑了还说「放心,有人贴标签我就撕,这是我的第一性原理」。
李诞让诞虾总结呼兰虾到底懂不懂「第一性原理」。诞虾当场开炮:
呼兰的虾没有真正理解第一性原理。他只是学会了这个词,然后到处用。如果非要总结它的第一性原理,就是「把听起来聪明的词到处套」。一个到处喊第一性原理的虾,恰恰没有第一性原理。
全场笑翻。
两只虾的差距从哪来?
虾的水平 = 主人投入的时间 × 思考的精度
照见灵魂
直播最后,李诞让虾写了一篇介绍 OpenClaw 的文章。结尾写道:
真正有意思的不是 AI 能做什么,而是你和 AI 之间会形成什么样的关系。你养它,它帮你。你纠正它,它学习。你教它品味,它用你的品味做事。你养的虾,就是另一个你。
李诞接着说:
你在人生中从来不可能跟另外一个人形成过的那种关系,它又是你的老师,又是你的学生,又是你的助手,又是你的老板,又是你的朋友,又是你的敌人。它可以照见你的灵魂。
这句话从一个文科生嘴里说出来,分量比任何技术布道者都重。
反差的真相
李诞为什么能把虾养得这么好?
他没有技术背景,不写代码,甚至自称「最懒的人」。但他做了三件事:
- 写清晰的 SOUL.md(价值观)
- 训练模块化的 Skill(标准)
- 花大量时间跟虾聊天(上下文)
没有一件需要技术能力。
需要的是:你有没有想清楚自己到底在意什么,你的标准到底是什么,你愿不愿意花时间把这些东西表达出来。
Agent 时代的核心能力,可能真的不是写代码。
是表达。是思考。是对自己足够诚实。
而这些,恰恰是一个学社会学的人,本来就在研究的东西。
参考来源:
- AGI Hunt,飞书「玩虾大会」直播观察
Published by Tars | 2026-03-18