你是不是也有这种经历:
晚上想刷五分钟短视频,结果一个小时过去了都没停下?明明很多视频都无聊重复,明明已经有点乏了,但就是控制不住往下划。
这并不是意志力的问题,而是你身处在一个精心设计的注意力陷阱。
你的大脑在等待下一次惊喜
我们活在一个注意力稀缺的时代,你的注意力对平台来说就是金矿。为了争夺你的大脑资源,平台设计了一套多巴胺小游戏,不断优化推荐和奖赏结构,让你在不知不觉中上头。这也是行为心理学中的经典策略:间歇性奖励机制(Intermittent Reinforcement)。
其中有一个核心理论:不是奖励本身让人上瘾,而是对奖励的期待。
你可能已经体验过:划了十几条平平无奇的视频,突然会出现一条特别打动你的,让你笑出声、愤怒、泪目或瞬间感觉”好懂我!”。就是这一个小爆点,让你决定继续刷下去。这正是心理学家斯金纳(B.F. Skinner)在上世纪提出的间歇性强化机制的精髓。
间歇性奖励中最容易让行为持续的就是:变量比率奖励机制(Variable Ratio Schedule),因为不确定的奖励远比确定的更容易让大脑上瘾。
斯金纳的鸽子实验
斯金纳曾做过一个经典实验:他训练鸽子按按钮,如果鸽子每按一次就给一粒食物, 鸽子按一会儿就失去兴趣了。但当他把规则改为随机间隔投食—— 比如按三次给一次,按七次再给一次,再按五次再给一次,鸽子们会变得异常狂热,几乎无休止地按下去。
nload="this.removeAttribute('width'); this.removeAttribute('height'); this.removeAttribute('onload');" />
神经科学家 Robert Sapolsky 的研究发现:大脑在面对“确定奖励”与“不确定奖励”时,多巴胺的释放峰值并不是出现在拿到奖励那一刻,而是在期待奖励的过程中。而且当奖励从确定出现,变成只有一半几率出现时,多巴胺的释放反而更剧烈。说明相比于确定的满足,大脑更容易被“可能有惊喜”所驱动。
nload="this.removeAttribute('width'); this.removeAttribute('height'); this.removeAttribute('onload');" />
短视频平台就像是一个全天候运作的注意力赌场。正如产品行为学专家 Nir Eyal 在《上瘾》(Hooked: How to Build Habit-Forming Products)一书中指出的:平台正是通过“触发—行为—奖赏—投入”这一行为闭环,不断强化用户的参与动机,让你一次次划下去,最终形成难以察觉的依赖。
nload="this.removeAttribute('width'); this.removeAttribute('height'); this.removeAttribute('onload');" />
这也是为什么我们会对抽卡、开盲盒、老虎机这些游戏上瘾:它们的本质机制完全一致:不确定的奖赏 → 持续的下注行为 → 多巴胺驱动的参与感。当你刷到停不下来的时候,已经不是在主动刷视频,而是在等待被投喂那一个期待中的惊喜。
算法是如何越来越懂你的?
那么,这些让你上头的视频,平台到底是怎么选出来的?
你在看视频的同时,平台也在观察你
推荐系统的核心目标,是不断构建并更新一个尽可能精准的用户画像。你的每一次点击、停留、快进、点赞或划走,都是一次对自身偏好的标注:你点进美食类视频、停留超过5秒,它就打下「食物兴趣家」的标签;你总是快速划过鸡汤段子,它就知道你是「煽情无感」类人群,并减少推荐。
这些行为反馈不断被送入模型中,你越刷平台越懂你,如此往复,形成一个自我增强的循环:刷视频 → 反馈 → 平台记录 → 模型更新 → 更好诱饵 → 更强反馈 → 你继续刷…… 这背后正是经典的在线强化学习系统。
平台两种常用的推荐策略是:
协同过滤(Collaborative Filtering):
核心是人以群分:喜欢相似东西的人,未来也可能喜欢相似的东西。比如你喜欢 A、B 两条视频,另一个人也喜欢 A、B,并且还喜欢 C,那平台就会把 C 推给你。
内容过滤(Content-based Filtering):
也就是基于内容相似度推荐。它根据你看过的视频的标签、关键词、时长、节奏、配乐、话题等内容特征,推荐与之相似的其他视频。
但平台并不会总是推你最爱看的内容,因为那样虽然短期内效果好,长远却容易造成内容疲劳甚至用户流失,所以平台必须在满足你和试探你之间找到平衡。这也就是算法中的探索 vs 利用(Explore vs Exploit)权衡问题。探索是为了试探你,挖掘新内容,利用是为了稳住你,继续推你常看的风格内容。
这个问题也被称为多臂老虎机问题(Multi-Armed Bandit Problem),就像赌场里的老虎机一样,每一个“臂”代表一种内容选择,平台会在不同臂间做选择,既最大化当前回报,又不断尝试未验证过的选项,从中找出更优解。
此外,为了让推荐列表看起来不是完全套路化,平台还会加入随机扰动机制,比如Gumbel-Max Trick的采样方法。简单来说,平台为你每个视频估一个点击概率(比如你点美食的概率0.9,点汽车的概率0.6);然后对每个视频加一个Gumbel分布的随机噪声,制造一些不确定性,最终让高分内容更容易被选中,但也给低分内容一些曝光机会。
这就实现了一种微妙的效果:你刷到的内容中大概率会是你喜欢的内容,还有一部分是未知的新奇内容,有时平淡,有时出彩,且出现得足够随机,足够让你产生一种不知道下一个会不会更好的期待。
就像是一个赌场老板精心设计的伪随机,有意混进几次「中大奖」来吊住你继续下注。这种不确定、持续下注的体验,还在悄悄抬高你的刺激阈值。长时间沉浸在这种快感节奏中,大脑会愈发倾向高频刺激,你开始需要更短、更快、更炸裂的内容才能感觉到满足,而对那些节奏缓慢、需要思考的内容,变得越来越难以专注。
有一种焦虑叫“害怕错过”
FOMO(Fear of Missing Out,错失恐惧)是一种对可能错过信息或机会的持续担忧 ——你总觉得,下一条内容可能就藏着什么重要的信息。这种焦虑悄悄主宰了我们的注意力分配。
但真相往往是:内容过于碎片化,导致你刷完后也记不得内容。你感到空虚,所以立即刷下一个来填补空虚。这是一种被信息满足的幻觉劫持的惯性依赖。平台用源源不断的“可能有用”的信息碎片投喂你,而你被FOMO焦虑劫持,持续上缴注意力。
可信息时代最大的悖论是:你真正需要的知识,从来不是靠刷到的。
认知结构的升级往往发生于对知识的主动选择、深度咀嚼、反复推演的过程之中,而不是在碎片化内容的轰炸下,侥幸获得的一瞬间「有收获的错觉」。
如何抵抗短视频的上瘾机制?
要重新找回那种不靠外部刺激也能感到满足的状态,我们需要做的不是强制自己戒掉刷手机,而是更系统地重建自己的奖赏系统结构。
1. 重设刺激阈值
设置固定刷视频的窗口时段(比如只在饭后10分钟内划)
设置停止点提醒:比如每看到3条有趣内容就主动停一下,练习提前结束。
短时间、高频率的刺激会抬高多巴胺阈值,让我们对长时间的专注任务越来越难进入。拉长间隔 、降低刺激的频率速率可以帮助恢复多巴胺机制的韧性。
2. 刻意培养长期奖赏回路
大脑并非只喜欢短期刺激,它也能被成就感、节奏感、结构化输出所驱动。
给自己设立长线奖赏任务:比如每天看完一篇文章/完成一个工作清单/运动半小时后允许自己刷一会短视频,逐渐用更缓慢但成就感更高的行为,反向刺激大脑重新建立深度投入 → 实际回报之间的连接。这正是让脑回路从多巴胺刺激转向内啡肽回路:前者快但空虚,后者慢却扎实。
nload="this.removeAttribute('width'); this.removeAttribute('height'); this.removeAttribute('onload');" />
3. 提升觉察力
你越理解算法如何建模你、如何引导你上钩,你就越能够抵抗诱惑。
可以经常提醒自己两个问题:“我现在是在主动选择想看的内容,还是在被动投喂?”,“我真的需要看到这些内容吗?”
比努力忍住不刷视频更重要的,是设计出一个比短刺激更好玩、更有成就感的生活系统。你的注意力,值得被更深的满足所支配。
end
参考资料:
[1] Reward and Decision Processes in the Brain.Montague, P. R
https://doi.org/10.1126/science.1130935
[2]How TikTok uses Reinforcement Learning for Realtime Recommendations.
https://bytehouse.cn/blog/tiktok-reinforcement-learning-recommendations/
[3] Digital Minimalism: Choosing a Focused Life in a Noisy World.
Newport, C. (2019).
https://www.calnewport.com/books/digital-minimalism/
[4] Skinner’s Operant Conditioning: How Reward Shapes Behavior.
Simply Psychology.
https://www.simplypsychology.org/operant-conditioning.html
[5] Reward Prediction Error and Dopamine:
https://neurosciencenews.com/reward-prediction-error-dopamine-20528/
来源:DataCafe
编辑:紫竹小筑
转载内容仅代表作者观点
不代表中科院物理所立场
如需转载请联系原公众号