“脑机接口”“意识上传”这些词,从科幻电影、技术演讲,越来越频繁地出现在日常新闻里。

一边,是各种看上去令人震撼的消息:Neuralink 获得美国 FDA 批准,在 2024 年完成了首例人类植入试验,尝试让瘫痪患者仅凭意念操控光标和设备;美国 Synchron 用血管内植入的方式,把一种称为 Stentrode 的脑机接口装置送入大脑,让渐冻症患者可以通过意念操作屏幕和家中的设备,并接入了更强的 AI 解码系统;中国的“碑脑 1 号”芯片项目也在加速临床试验计划,计划在十几位患者身上植入设备,与国际脑机公司并行竞争。
另一边,是各种关于“意识上传”“数字永生”“把大脑接入云端”的畅想:从早期的哲学讨论,到现在不少科技媒体在谈“把自我备份到计算机”“让意识永远存在”。
从明犀研究院的视角看,这些发展都不是遥远的科幻,而是正在逼近我们日常生活的技术现实。但越是靠近,我们越需要在兴奋之外,问另外几个问题:
我们到底在期待什么?我们到底在害怕什么?在这两者之间,我们有没有第三种可能的立场?
技术到底走到哪一步了?先把“现实”和“想象”分开
在明犀,我们首先会做的事情,是把“已经发生的”和“仍在想象中的”分层。
目前真实存在、进入临床试验甚至应用的脑机接口,主要还是“读出型(read-out)”技术:也就是从大脑中读取神经活动,把它翻译成外部设备可以理解的指令。这包括几类路径:
其一,开颅植入式。像 Neuralink、Paradromics 这样的公司,会在颅骨上开窗,将带有上百甚至上千个电极的柔性电极阵列直接放到皮层表面或插入到皮层中,从而高精度记录神经元的放电活动,用来控制光标、机械臂或合成语音。这种方式创伤大,但带宽高、信号质量好,目前主要针对严重瘫痪、失语患者。
其二,血管内或“微创”式。Synchron 的 Stentrode 通过股静脉进入脑部静脉,像支架一样贴附在血管内壁,通过血管壁感知附近脑区的电活动,避免了开颅风险。近期的系统还结合了 Nvidia 的 AI 平台和头显设备,让患者通过“想象动作+视觉界面”控制环境和应用程序。
其三,非侵入式。比如 EEG 头环配合 AR/VR 设备,利用头皮电信号和眼动,帮助有言语障碍的人在头显环境中选择字词、表达意图。信号更弱,但更安全、更易扩展。
从功能上看,这些技术目前主要在做两件事:
第一,恢复能力让因疾病或事故失去运动、言语能力的人,能够重新与世界互动——打字、选词、控制轮椅、操作智能家居。
第二,探索增强在小范围内尝试“加速”人机交互的效率,例如更快输入、更自然控制虚拟环境。
相比之下,“意识上传”“把自我复制到云端”仍然停留在理论和科幻层面:所谓 mind uploading,本质上是一个“对整脑进行极高分辨率扫描,再基于此构建数字仿真大脑”的设想。主流神经科学和计算神经科学承认,从原理上讨论这种可能性不是完全无意义,但也普遍认为,以目前对脑结构与动态的理解程度,这仍然是一个“数百年尺度的工程”,而不是几十年内的现实项目。
如果我们不先把这两层分清,就很容易把“帮助渐冻症患者打字”与“数字永生”混在一起,既夸大了现实,也美化了想象。
我们在期待什么?三重期待叠加在一起
从明犀的角度看,人们对脑机接口和“意识上传”的期待,大致叠加了三层欲望。
第一层:对“恢复”的期待——从失语、失动到重新成为一个能说话的人
这是最具体、也最值得支持的一层。
对于四肢瘫痪、重度渐冻症、严重中风患者来说,脑机接口不是“炫酷科技”,而是一条通向世界的生命线。Paradromics 的临床试验目标,是帮助无法开口的人用意念形成文字和语音,达到接近正常对话的速度;Synchron 的参与者通过 BCI 控制头显和家电,可以重新掌控环境,减少对护理人员的完全依赖。
在这层意义上,脑机接口是一种“尊严技术”:它让那些被现代医疗“保住生命,却丢失主体性”的人,有机会重新以主体的方式存在。
这一层,我们应当怀着足够的敬意和支持。
第二层:对“增强”的期待——变快、变强、变聪明
当人们开始说“把大脑直接接到云”、“把计算力和记忆外挂到自己脑子上”时,期待的就不再是恢复,而是增强。
这种期待背后,是一整套现代竞争逻辑:如果别人可以通过脑机接口更快学习、更快决策、更快控制复杂系统,那么我是不是也必须跟上?如果脑机接口可以帮我更快过滤信息、更精准记忆、甚至实时接入 AI 模型,我是否会因此“进化成更高级的人类”?
在这里,脑机接口被想象成“下一个智能手机”——只不过,这一次它不再握在手里,而是直接进入了神经系统。
这层期待里,隐含着很强的效率崇拜,也夹杂着大量技术乐观甚至技术崇拜。
第三层:对“战胜死亡”的期待——数字永生与意识备份
当讨论走到“意识上传”、mind uploading 时,期待触及的就不再只是功能,而是人类最深处的焦虑:死亡。
设想是这样的:如果有一天,我们能完整扫描并模拟一个人的大脑,让这个“数字大脑”在计算机或机器人中继续运转,那么——这个数字体是不是还算“我”?——我是否就可以“以另一种形式活下去”?——肉身的死亡,是否就不再是真正意义上的终点?
这些设想背后,既有严肃的哲学讨论,也有某种“世俗版永生”的想望。但从明犀的角度看,如果不把“意识的本质问题”说清楚,这样的期待很容易滑向一种新的技术神话:好像只要算力足够、接口够密、云空间够大,我们就可以绕过所有关于意义、自我、责任的存在性问题。
我们在害怕什么?几个层面交织在一起
围绕脑机接口和意识上传的恐惧,同样不是一维的。
第一层:最直观的血肉之躯恐惧
这层恐惧很朴素:
开颅植入会不会出事?金属或者柔性电极长期在脑里,会不会移位、感染、引发免疫反应?设备失灵、断电、被攻击,会不会直接影响我的生命安全?
这些恐惧在传统医疗植入领域已经存在多年,只是这一次植入的位置是大脑——我们最在意、也最难以替代的器官。
第二层:心理隐私与“脑劫持(brainjacking)”的恐惧
随着脑机接口从医疗走向更广泛的应用,伦理研究者开始提醒一个新的风险:“心理隐私”和“神经数据安全”。
脑信号不仅可能透露一个人要移动手指、想要选择哪个图标,还可能在一定程度上透露情绪状态、注意力模式、甚至对某些刺激的偏好。已有研究指出,如果将这种数据商业化或滥用,可能出现“脑数据画像”“神经广告定向”“情绪操控”等新形式的侵犯。
美国有议员已经要求监管机构调查消费级脑机产品和神经科技公司如何处理这些高度敏感的数据,指出目前不少公司在数据收集、共享和删除权方面几乎没有透明度和约束。
所谓“brainjacking”——通过网络攻击控制或干扰脑机接口——目前还主要停留在理论和实验层面,但从技术上并非不可能。一旦“读出”和“写入”功能结合,被攻击者不仅可能在行为上被操控,在情绪、决策甚至价值判断上也可能受到潜移默化的影响。
这已经不是传统意义上的“信息泄露”,而是对“自我边界”的直接侵蚀。
第三层:身份与连续性的恐惧——那个上传上去的是不是“我”?
围绕mind uploading的哲学讨论,核心不是“技术能不能做到”,而是:“即便做到了,那个数字体是不是我本人?”
设想一种场景:有一天,技术上真的可以把你的大脑完整扫描、模拟,并在云端运行一个“与你一模一样、拥有全部记忆和性格”的数字版本。上传过程可能是:
A. 非破坏式:你还活着,世界上突然多了一个“数字你”;B. 破坏式:你的大脑在扫描中被彻底“摧毁”,只留下一个数字版本在云端“活着”。
问题来了:在 A 中,你和“数字你”谁是真正的“你”?在 B 中,你是否可以安心认为自己“通过上传活下来了”?还是其实“你”已经死亡,只留下了一个高度相似的“他者”?
这些问题目前没有被解决的共识,甚至是 mind uploading 这一设想最核心的哲学障碍之一。如果社会文化不认真面对这些问题,而只是用“数字永生”的故事包装,很容易制造一种“虚假的安慰”:在技术上完成的是复制,但在人心里被当成了延续。
从明犀的文明意识视角看,这背后其实是一整套关于“自我”“连续性”“责任”的深层困惑——不解决这些困惑,把“上传意识”当成解决死亡焦虑的捷径,很可能会引发新的精神危机。
第四层:权力与结构的恐惧——谁控制接口,谁就控制人类?
脑机接口本身并不必然恶,但它极大放大了一个问题:当可以直接作用于大脑时,掌握技术和标准的人,是否就掌握了对“人”的前所未有的影响力?
谁来制定这套接口的协议?谁来拥有和处理神经数据?谁来决定哪些人可以“增强”,哪些人只能“被观测”?脑机接口会变成一种新的阶层分化工具,还是会成为一种真正的公共福祉?
当资本逻辑、地缘政治逻辑、意识形态竞争逻辑都涌进这一领域时,“接口之争”就不再是技术路线之争,而是一场围绕“人类心智主权”的新型博弈。
这也是明犀特别关注的一个层面:如果没有文明意识层面的前瞻思考和制度设计,脑机接口很容易变成少数势力对多数人的新型“软控制工具”。
从明犀的角度,最大的危险不是技术本身,而是“技术幻觉”
在明犀研究院,我们经常谈“技术幻觉”——不是说技术不好,而是指一种极具迷惑性的倾向:
把原本属于意识、价值、关系、本体的问题,交给技术去“解决”;把技术看成一种可以绕开自我面对、绕开集体反思的捷径。
在脑机接口和意识上传的问题上,这种“技术幻觉”主要表现为几点:
第一,把能力的增强当成意识的提升
一个装上脑机接口的人,可以更快地打字、更流畅地控制设备,甚至未来可以更快调用外部知识库,这并不自动意味着:
他更清醒,更有责任感,更能审视自己的价值选择,更愿意为他人和世界承担。
如果人的意图、欲望、恐惧、偏见不变,技术只会放大它们:一个带着偏见和仇恨的人,连接更高效的接口,只会更高效地放大偏见和仇恨。一个被效率逻辑完全塑造的人,连接更高效的接口,只会更彻底地被效率驱动,甚至难以停下。
第二,把“上传”当成逃避死亡和存在焦虑的办法
面对死亡的恐惧,是人类无法绕开的根本体验。不同文明用宗教、哲学、艺术、家族传承、社会贡献等方式回应这个问题。
当“意识上传”被包装成一种新的“技术版永生”时,潜台词是不需要再面对这些问题:你不需要思考有限生命中的意义,不需要承担“作为此时此地的一个人”的责任,只要等待上传那一天,便一切都可以“另行继续”。
从明犀的本体意识视角看,这是对人之为人的一种致命偷换:它把“活着”这一存在性的体验,替换成“被复制”的技术过程。
第三,把文明升级想象成算力升级
现代社会已经习惯了一个等式:技术升级 = 生产力升级 = 文明升级。
脑机接口与 AI、算力、云基础设施结合后,很容易被纳入这个等式:只要我们更快、更联通、更多数据、更强解码,文明就自动会走向更高级阶段。
但在明犀我们会反复追问:如果意识维度不升级,如果自我中心、不安全感、贪婪和恐惧依旧是集体行动的底层驱动力,那么所有技术升级,最终只是让旧的模式跑得更快。
在恐惧与期待之间,我们能做什么?
如果不想陷入技术恐惧,也不愿落入技术幻觉,我们需要第三种立场。
从明犀研究院的视角,至少有几条工作方向是清晰的:
第一,把脑机接口放回“减苦与增能”的现实维度
对于医疗用途,尤其是重度残障群体,我们应当给予更积极的支持和资源:帮助伦理委员会、监管机构、医疗系统一起,确保这类技术真正惠及需要的人,而不是被市场炒作淹没。
在这个维度,脑机接口是一种“减苦技术”:它让本应拥有主体性的生命,不再被彻底锁死在身体里。
第二,建立清晰的“神经主权”和“神经伦理”共识
在企业、政策、社会层面,需要尽快形成关于“神经数据”的基本原则:大脑数据属于谁?哪些用途是绝对禁止的?哪些用途必须在高度透明、可撤回、可追踪的前提下进行?个人对自己的神经数据,应当拥有哪些不容剥夺的权利?
这类讨论在国际上已经开始,部分地区甚至尝试引入“神经权利”的立法探索。中国在这一领域同样需要有前瞻性的制度设计,而不能单纯以“产业竞争”逻辑对待。
第三,把“意识工作”从技术中抽离出来
在明犀体系里,我们一再强调:意识的提升,离不开觉察、反思、关系、修炼与行动。无论未来脑机接口有多强,真正的清醒、慈悲、勇气和责任,不可能通过“上传”“下载”或“外挂”来获得。
这意味着:在谈脑机接口和意识上传时,我们必须同时建设另一条“非技术路径”:如何在当下的生活、企业、组织、社会中开展意识层面的练习和教育,如何让企业人和新企业家在技术洪流中保持内在主体性,如何通过修炼而不是外挂,来面对死亡、意义和选择的问题。
第四,为企业和组织提供“有觉知的技术路线图”
脑机接口最终不只是个人问题,也会是企业和产业问题:哪些企业会率先引入相关技术?他们如何处理员工和用户的神经数据?他们是否会用技术压榨,还是用技术护航人的发展?
明犀未来的一个重要工作方向,是帮助企业构建“有意识的技术治理框架”:在引入包括脑机接口在内的新技术时,不仅有商业与效率考量,也有清晰的意识和伦理标尺。
回到标题:我们到底在害怕和期待什么?
归根到底,人类在脑机接口与意识上传问题上,既是在期待一种“更强的能力、更长的生命、更紧密的互联”,也在害怕失去“作为一个人、一个独一无二的我”的感觉。
我们期待技术减轻痛苦、拓展可能,又害怕技术被滥用、被资本和权力结构劫持,更深处,则是害怕在所有这些变化中“我”被稀释成一个可复制、可编辑的对象。
从明犀研究院的视角看,真正的关键不在于技术本身,而在于:在技术飞速前进的同时,人类是否愿意也在意识上前进一步。
愿不愿意正视自己对死亡的恐惧、对失控的恐惧、对失去自我的恐惧,而不是用一个又一个技术叙事把它们盖过去;愿不愿意有一部分人先站出来,不是去争夺接口,而是去捍卫意识和主权;愿不愿意在企业、组织、文明层面,认真讨论“我们希望成为什么样的人类”,再反过来决定“我们应该发展什么样的技术”。
脑机接口与意识上传,只是新文明周期中的一块试金石。它会考验的,不只是我们的工程能力,更是我们的文明意识。
这一场考验刚刚开始。明犀会站在“意识优先”的立场上,持续关注并参与这场讨论——不是为了给出唯一答案,而是为了提醒时代:不要把本该由意识承担的问题,全都交给技术去解。