设为首页 - 加入收藏 ASP站长网(Aspzz.Cn)- 科技、建站、经验、云计算、5G、大数据,站长网!
热搜: 数据 创业者 手机
当前位置: 首页 > 站长资讯 > 评论 > 正文

机器学习实现了脑机语言翻译,距离“意念交流”还有多远?

发布时间:2020-05-07 11:26 所属栏目:17 来源:站长网
导读:副标题#e# 在《三体》当中,大刘为三体文明设计了一种“思考即说话”的意念交流方式。在严酷的三体环境下,三体人正是依靠这种高效无误的意念交流方式,实现了知识的无障碍共享、理性决策的高度统一,才能创造出如此高度发达的文明成果和整齐划一的社会体制

机器学习实现了脑机语言翻译,距离“意念交流”还有多远?

在《三体》当中,大刘为三体文明设计了一种“思考即说话”的意念交流方式。在严酷的三体环境下,三体人正是依靠这种高效无误的意念交流方式,实现了知识的无障碍共享、理性决策的高度统一,才能创造出如此高度发达的文明成果和整齐划一的社会体制。

这一思路就如同去中心化的分布式计算机,只要建立联接,每一台独立的计算机单元都可以获知其他计算机单元的数据,每一台计算机单元理论上也都能够共享共同的执行命令。

反观人类,我们就显得有些“低能”了。首先,我们每个人的大脑都像是一块白板,任何的数据信息都需要经过大脑的发育和长期的经验训练才可能学到一星半点的知识;其次,我们的大脑又仿佛一个神秘黑箱,每个人都只能通过外在的语言、表情、姿态等信号来识别对方的动机,所谓知人知面不知心就是这个意思。再次,我们的数据信号的输出又非常低效,我们只能以这种每秒钟几KB的语音、词汇等信息来输出想法,严重制约了沟通效率。

机器学习实现了脑机语言翻译,距离“意念交流”还有多远?

可能有人会质疑,我们有必要向三体人那样通过“意念”直接交流吗?假如有一天我们的思想真的可以直接交流,即便有那么多的好处,同样那些个人的贪念、恶意也无法隐瞒,这些对我们人类来说都可能是一场巨大灾难。

在高等文明来临前,私欲和恶意就会将人类推进深渊。不过,这种推论仍然是杞人忧天。

一方面目前这种程度的“脑机接口”技术的实现还遥遥无期;另一方面,一旦人类动了“意念交流”的念头,只要技术有任何可能的突破,好奇心都会驱使那些最聪明的人去实现它。至于技术出来是否“洪水滔天”,那就事后再说了。

当前来看,脑机接口技术正在取得一些显著的进展。最近一项可以称之为脑机语言翻译的技术,又实现了新的突破。

3月底,在Nature杂志的副刊《神经科学》上面,来自美国加州大学旧金山分校的研究人员发表了一项新的研究,他们利用机器学习的方法,可以把脑电波信号直接翻译成了有意义的语音和文字,翻译准确度得到大幅提高,最低错误率只有3%。

这一结果是如何实现的,这一研究意味着什么,距离实现“意念交流”还有多远?这些正是我们接下来要讨论的内容。

人脑语言翻译规律,机器学习很有一套

我们先来还原一下这项实验的过程:研究人员找到四名患有癫痫的受试者,事先在其大脑的控制发音的脑区植入电极装置。在实验中,受试者需要先在一个有限的词语库里,反复地朗读一些句子。电极装置就可以在过程中捕捉朗读瞬间活跃的脑电波信号。

机器学习实现了脑机语言翻译,距离“意念交流”还有多远?

(记录大脑活动的颅内ECoG电极阵列)

然后,研究人员就可以在在收集到的信号和语句库之间找规律,把跟控制发声动作相关的脑电波信息提取出来。接着就可以通过机器学习对这些数据进行训练,使得AI可以在脑电波信号和语句库之间建立起映射关系的模型。

最后,你只要在大脑中想象自己说出词语库内的某一句话,AI程序就可以根据训练后的映射关系,来识别你的内心独白了。

机器学习实现了脑机语言翻译,距离“意念交流”还有多远?

(通过声波动作的脑电波信号识别语音)

由此可知,实验得以成功的前提就是复杂的脑电波信号和明确的语词之间,可以建立一套准确的映射关系。那么基于数据标记的有监督的机器学习就很容易在训练中“找到规律”。

论文中还表明,AI在学习识别人类脑电波的速度非常快。实验结果显示,只要经过大概40分钟语音数据的简单训练,语音相关的脑电波的AI翻译,就可以达到比较高的准确率了。其中效果最好的一名受试者,在仅仅经过9次数据训练之后,词错率就降到只有3%了。这个词错率已经接近于迄今为止AI读取人的想法的最佳表现。研究人员认为,如果再经过更多的训练,识别的效果还会进一步上升。

当然,这套映射规则是限定语种、限定语句库和限定测试者的基础上完成的。

首先,在这次的研究中所使用的语句库,只包含100多个词汇,50-60个句子,比我们日常交流的语句库少很多。

其次,脑电波的识别是在同一个人的人脑中完成的,也就是还不能证明,不同人之间,脑电波信号的识别规律是否具有迁移性。

很显然同样的一句话,受到不同语言背景、不同理解能力,甚至更为复杂的生理因素的影响,在不同的人脑中,形成的脑电波可能是完全不同的。

这可能就需要针对每个人的脑电波信号的特点,分别建立完全不同的AI识别模型。这也意味着大脑信号之间的直接交流几乎很难实现,仍然需要具有公共涵义的共同语言作为中介来实现思想的交流。这也是哲学家维特根斯坦提出的“没有私人语言”的一种现实困境吧。

那么,如果AI对于脑电波的文本翻译能够达到实际应用的程度,这项技术对于我们意味着什么呢?

让失语者重新“说话”,脑机语言翻译大有作为

我们先来理解下这项脑机语言翻译的真正意义。在人类的漫长进化史中,大脑的复杂和语言的出现成为一对互为因果的因素,帮助人类从严酷的自然环境中胜出,建立起复杂的文明和文化形态。也就是从人之为人的数万年时间里,我们人类的最主要交互方式就是语言,以及在语言基础上衍生出的文字、信号等沟通方式。

而这次脑机语言翻译的出现,意味着人类的交互方式出现了新的形式,也就是由大脑信号直接转化为语言信号。尽管如我们所说,这一方式离三体人的“意念交流”还有很大距离,但已经是在向这一“意念交流”的方向前进了一大步。

至于现实意义呢?对于普通人而言,无论是谁也不会轻易尝试在大脑中植入一块电极装置,再是日常语言交流仍然是最廉价、最高效地表达信息的方式。短期内,我们还是会习惯语音和手指作为信息输入的主要手段。

(编辑:ASP站长网)

网友评论
推荐文章
    热点阅读