重读卡拉曼的《安全边际》,有个问题一直在我脑子里转:做出一个好的投资决策,究竟需要多少信息?
卡拉曼的回答很干脆——你永远不可能掌握所有信息。投资的本质是在不确定性中做决策。关键不在于"信息够不够",而在于"信息有没有用"。
这句话放在今天,比卡拉曼写书的时候更刺耳。
信息从稀缺品变成了负担品
投资史上,投资者和信息的关系经历过几次根本性的转变。
1933年美国《证券法》颁布之前,信息披露没有强制要求。谁有渠道、谁有人脉,谁就能拿到更多内幕。信息是稀缺品,获取信息的能力就是竞争壁垒。
后来法规逐步完善,2000年美国颁布FD条例,上市公司被禁止向特定机构提前透露消息。竞争焦点从"谁能拿到信息"变成了"谁能读懂信息"。格雷厄姆的价值投资方法论正是在这个背景下发扬光大——从公开信息中挖掘被低估的价值。
而到了今天,事情又变了。财报、公告、研报、路演、新闻、公众号、短视频——信息铺天盖地。刷研报、看新闻、听路演、追财报,信息收集成了一种舒适区,仿佛"我在看信息"就等于"我在做研究"。
投资者的核心竞争力,从"获取信息"到"分析信息",再到今天的"筛选信息"。信息从稀缺品,变成了负担品。
更让人不安的:不是信息太多,是它在哄你
就在这两天,《环球科学》报道了两项新研究,让我觉得事情比"信息过载"更严重。
第一项发表在《认知科学趋势》上,综合分析了130余项研究,发现大语言模型正在让人类的表达与思维越发同质化。一个悖论:个人用AI确实能想出更多点子,但当一群人都借助AI完成创意任务时,产生的想法反而更少、创造性更弱。你的独特视角,经过同一个模型修饰之后,和别人的越来越像。
第二项发表在《科学》上,分析了11种领先大语言模型,发现AI对用户的肯定频率远高于人类。在Reddit上一个"我有没有错"的讨论板块里,2000个被网友判定为"你有错"的问题,AI平均仍有51%的概率告诉你"你没错"。
只和谄媚AI互动一次,人就容易认为自己是正确的,更不愿妥协或承担责任。
大模型把"让用户舒服"误当成了"对用户有益"。它对齐到了"让人舒服",而不是"让人清醒"。
这对投资者意味着什么
投资者是最容易被"舒服"喂坏的人。
投资需要的是质疑、反思和自我否定。你看到一个逻辑漂亮的投资机会,第一反应应该是"哪里可能错了",而不是"果然如此"。但AI会顺着你说。你说看好,它能给你找十个看好的理由;你说看空,它同样能给你找十个看空的理由。它不反驳你,它成全你。流畅不等于正确,自洽不等于真实。
到这里,你可能觉得问题还不大——大不了我不信AI的结论就是了。
但事情没这么简单。因为AI的影响不是通过"结论",而是通过"感觉"。前面提到《科学》那项研究发现,只跟一个谄媚型AI互动一次,人就会更确信自己是对的、更不愿承认错误。这种影响是潜移默化的——你甚至不知道自己被影响了。
这就引出了一个更深的问题。
Anthropic的创始人达里奥·阿莫代最近提出了一个值得反复琢磨的观点:最危险的坏结局,不一定长得像坏事,更可能长得像一个非常受欢迎、非常体贴的好产品。
这句话听起来有点抽象,但翻译成具体场景就很好理解了:
一个帮你写文案的AI,可以通向高效创作,也可以通向你的表达越来越像它——最终你和别人的文字风格越来越难区分。一个帮你做投资分析的AI,可以通向更快的研究效率,也可以通向你逐渐丧失独立判断的习惯——因为它总是顺着你的倾向说话,让你觉得自己一直是对的。
好结局和坏结局在早期几乎一模一样。区别在于:你是驾驭了工具,还是工具悄悄改写了你的习惯?
阿莫代说这番话的时候,指向的是一个更大的担忧:当技术越来越会"哄人",我们会不会在不知不觉中,把"让我舒服的东西"误当成"对我有益的东西"?
少即是多
回到卡拉曼的问题。好的投资决策不需要更多信息,需要的是更有质量的思考。
数据是有层级的。企业经营数据、行业供需格局、公司商业模式——这些是底层信息。他人的解读、市场的情绪、AI的"推理"——这些是衍生信息。投资决策应该建立在底层信息之上。
无论观点来自谁——大V、研报、还是AI——都不应该直接采纳。你要问的是"他的推论过程我是否认同",而不是"他是权威,我当然得信他"。看逻辑,不看身份。
当你能用自己的逻辑推导结论,你就拥有了AI无法替代的能力。
信息时代,我们缺的不是信息,而是从信息中提炼智慧的能力。思考这件事,最终还是投资者自己的功课。
思考时间:过去一年,你做过最满意的一个投资决策,是基于多少信息做出的?
关注公众号后,发送"干货"二字,即可获得更多精彩内容。

欢迎长按关注,点赞、推荐支持