记忆的互联

(1)Memect的愿景

Memect成立两年多了,现在准备要进入一个新的阶段了,我觉得有必要来解释一下,当初要离职开始做这件事情的愿景是什么,以及我们打算通过一个什么样的路径来达到这个愿景。

当然,对大多数人,这个愿景可能是无所谓的。以前我们也只和很少的亲近的朋友聊过。在具体战术上,也许不必拘泥于这个愿景;不过愿景这个东西,说它不重要也不对,它代表了一个努力的方向,也许我们永远都到达不了那里,可是它会给我们一个导引,让我们不要在纷繁芜杂的噪声中过于迷失。一个有意思的愿景,在我们面前挂一个胡萝卜,引诱我们未来可能有什么特别有意思的事情在前面。做创业,最重要的驱动力不就是去做有益而又有趣的事吗?这是各种快乐的源泉。

Memect这个名字是在2012年提出来的,但它背后的很多想法,是1996年或者更早的时候就开始了,所以这件事,并不是心血来潮。这个词是Memory Connected两个单词的缩写。Memory(记忆)是指知识在时间维度的流动,Connected(互联)是指知识在空间维度的流动,Memect这个词的意思就是要建立这种知识的流动的渠道,让世界上的记忆可以互联,让人和人之间可以特别方便地交换思想、见闻的片段,让人类的知识以特别小的“摩擦力”关联起来。

互联的记忆有两个层次。第一个层次是记忆的外化,第二因为记忆外化了,就方便来更好的互联。这两个层次,都是用机器来扩展我们的大脑的过程,机器做那些机械的、程序性的工作,而人承担有创造性的步骤。而其中机器中的人工智能,核心就是各种语义技术。

 

(2)记忆的外化

记忆的外化,就是用我们的脑之外的软件或者硬件来存储记忆。在大脑里,我们有海马来存储记忆。后来人们发明了结绳、绘画、文字,到现在的计算机存储器,可以越来越多地用外在的记忆来补充甚至替代我们生物的记忆。这个过程的意义,在哲学里有很多研究,称为Extended Memory或者Extended Mind,这里不细说了,我们主要还是从工程和应用的角度来看这个问题。

记忆分为很多种。现在比较容易保存在非生物媒介上的,还是陈述式的记忆,就是那些能够用文字符号表达出来的记忆。非陈述式的,比如疼痛的感觉、美妙的音乐带来的享受等等,不太容易被精确地表达出来。所以在现有的技术条件下,并非所有的记忆都可以被外化。不过陈述式的记忆本身就已经是极其巨大的资源了。

现在大家为什么迷恋于智能手机,其实部分地可以看作我们越来越多地把我们脑的一些功能,逐渐地给转移到手机里去。我们的记忆、认知,都越来越多地由一个人-机系统来承载,而不仅仅是生物的。甚至可以说,离开了机器,我们每个人都变得不完备了,因为我们每个人作为一个文化的单元,都不是完全由蛋白质构成的,而是蛋白质+硅的混合体,而且硅的比例每一年都在提高。所以我们迷恋手机,并不是迷恋手机本身,而是和我们的另一部分不可分而已。

当然现在的手机还是很原始的。人类要到达到无障碍感的对话,延迟不能超过两秒。现在我们的记忆存储在网络上或者手机里,两秒的回溯还很难办到。为了达到近乎实时的个人外在记忆的回溯 ,还需要大量的软件和硬件的革新。未来某个时候,Memect可能会成为一家硬件公司,专卖人的第二大脑。这会是特别有意思的一个事情。

(3) 记忆的过载

2015-09-02

[  题外话:写这些话,并不是说我们做为一个创业公司现在就在做这个事情。每一个优秀的技术,从它开始概念形成,到支持它的那些底层的技术成熟,到需要它的市场出现,到具体落实到一个团队,到规模化,往往都是几十年的历程。比如说Web这个东西,40年代就有了,要到80年代底层基础才成熟。Tim Berners-Lee从1980年开始实现,中间经历了种种困难,到了1991年才完成,后面又花了两年来做Marketing。但是并不是说,在这个目标完成以前Tim Berners-Lee一直都闲着,他一直在尝试各种小的努力,最终connect the dots,好像一下子就发明出Web了,其实不然,都是多年的积累。不光是技术的积累,也是社会经验的积累。他有了Robert Cailliau来帮他做跑项目、公关和销售,Web这事才做成了。所以今天提到的东西,可能十几年甚至几十年以后才能实现,在实现它的过程中,可能会有很多副产品,这些副产品本身就是有益和能挣钱的——Web不就是高能物理的副产品吗? ]

人类终将要讲越来越多的记忆放在非生物的媒体中去。其实现在这已经是我们生活不可缺少的一部分了,比如Google这个全球记忆。有认知科学的研究,说明有了Google这十几年来,我们人的认知行为有了很大的变化,这被称为Google Effects (例如2011年Science上的那篇Google Effects on Memory)。但是仅仅有全球记忆是不够的。

人类如果仅仅是把记忆的一部分数字化了——比如微博和照片——本来并不是问题。但人是社会的动物,人是要相互交换记忆以维系各种想象的共同体(比如家庭、公司、教会、国家)。Google和Wikipedia这类全球记忆,只是反映了一个很小的全人类的记忆的交集,大量的人类记忆是私密的或者局部的,他们的交换不会是全局的,所以必然得要求定向的而非广播的交换。以前,这些记忆都是从一个人那里线下地交换到另一个人,社交媒体兴起以后,这种交换逐渐开始线上化了,这就产生了外化的记忆的交换。这带来了非同寻常的挑战。

我们智人的身体和脑子,其实还是狩猎采集时代的硬件,几万年来进步不大,并不适应现代社会的生活,在身体上表现为肥胖和高血压,在认知上表现为无法应对过量的信息,不知道怎么在复杂的信息流中鉴别真伪。我姑且把这个病称为“朋友圈综合症”。该症的基本原因,则在于我们的石器时代大脑只能处理好几十个人至多百把人的信息交换,而且需要快速的做决策(不然就会被狮子或者对方吃掉),所以我们的大脑里固化了很多“非理性”(但是在石器时代是理性的)的思维方式(具体可以去参考《思考快与慢》这书)。现在我们每天打开微信或者微博,是要应对的几千人,甚至几百万人那里来的信息,我们的吸收能力就象北京冬天的PM2.5探测器一样:爆表了。

其实这就象人类进入农业社会以后,突然一下就有了很多记事情的需要,比如播种啊,储藏啊,脑子是绝对不够用了,慢慢就有了文字这种东西来辅助。现在我们进入网络社会,我们要应对几千几万倍的信息,要怎么做?

(4)信息和记忆

这一段稍做补充区分一下信息和记忆。因为上面一段提到信息过载问题,那和记忆过载有什么关系呢?

在我看来,最重要的区别是记忆是人产生的,一种个人的体验,比如你每天看的的,听到的,一些自己思考的东西,这些都是记忆。而信息是更广义的,比如机器每天产生的数据(如服务器的日志,温度计记录的温度),大多数没有人去看的,这些就不构成记忆。再严格一点,我们人有长期记忆和短期记忆,每天的见闻绝大多数都是短期记忆,维持几秒种而已,这些在工程上我们不感兴趣。所以在工程上我们感兴趣的,是容易被数字化的长期记忆。

大多数我们看过的文章,我们转眼就忘了。大多数我们留下记忆存根的事(比如某个地方遇到的一个人的名字),想回忆起来很麻烦。这是我们的生物记忆的局限造成的。你可以把这看成一个Feature,但是其实它是一个Bug,是我们大脑的进化和文化的进化速度不匹配造成的(原始人一辈子遇到的人可能也就百把个)。我们人类迟早会用技术手段来弥补这个Bug。其实在我看来这些技术手段已经有了,只是要在商业上运作起来还需要较长的试错的过程。

(5)通信快与慢

在科幻小说里,比如《基地》和《三体》,设想过一种生物,他们相互之间通信成本很低,可以直接脑对脑的通信,他们甚至可以全球共享一个记忆。这种社会和我们智人的社会全然不同。我们智人之间的通信非常困难,每秒只有几个比特。而且,我们的通信系统是为小部落设计的,我们的对事物的分类组织能力、个体识别能力、语速,都是为狩猎采集的需要发展起来的。例如,我们的视觉非常发达,可以同时感知多个运动物体,但是我们的阅读能力却非常低下,在眼前同时展开几页书,我们却只能顺序地一页一页、一行一行地看。我们没有进化出一目十页的能力是因为狩猎采集社会不需要这种能力,我们的语言中枢完全不需要这么高的速度。

而且,我们的社会组织能力也是为小部落设计的,所以人数一多,通信的效率就会急剧下降。在大公司工作过的人都会知道大型组织内部是多么的惨绝人寰的通信低效率,有效的沟通可能平均下来每秒只有小数点后若干零个比特。因为要对抗我们认知能力的不足,就需要各种中介和冗余的设置。

蚂蚁通过触角上交换一些化学分子组织起庞大的社会(据说最大的蚂蚁窝有上千公里长)。在未来的人类看来,我们的今天的社会居然能在这么低级的通信能力的基础上被组织起来,这本身就是奇迹。

做过工程的都清楚,通信的速度可以改变一个系统的整个构架和运作。假如我们人类之间的通信速度不是几个比特而是几十个比特,那整个人类社会都会有天翻地覆的改变。正如书写和道路造就了古典帝国,任何通信的革命都会带来难以预料的组织变迁。

(6)互联的摩擦力

一个人大脑里的记忆,转给另一个人,有硬件的阻尼,有软件的阻尼。这些阻碍通信的问题,我们统称为摩擦力,它们都会降低通信的速度,从每秒几个比特降低到每秒零点零零..零几个比特

硬件的阻尼,首先就是人把自己的所见所闻,所思所想给记录下来,不管是纸笔也好,数字化也好,其实都是个成本非常高的事情。我们有了计算机,然后电子邮件,然后Web,然后博客,然后微博,到现在有手机和智能眼镜,记录和表达的成本越来越低,但是还是太高。90-9-1规律之所以成立,并不是大多数人智力低下所以只能当潜水员,而是因为发言是有成本的,成本达不到可预期的回报,大多数人就不会去写。但是这个成本降低的趋势还是会持续下去,语音识别、图像识别、电池、高速无线网络这些技术会继续进步,我乐观估计,在十年以后人们就可以实现(如果他们愿意)把自己的整个生活不间断地记录下来——可以类比一下行车记录仪,我们会有人生记录仪。当然这里面也会牵扯到很多法律的、社会的问题,这是所有的新技术都会面临的挑战。

硬件的阻尼不仅是记录的问题,也是回溯的问题。人脑和计算机对记忆的回溯各有长处和短处,一个有效的人机记忆组合,应该是多级缓存的机制,充分发挥生物媒介和电子媒体各自的优势。人脑本身是一级缓存,留下最基本的记忆存根。一个可穿戴的“人生记录仪”(第二大脑)是二级缓存,把最经常访问的外部记忆随身携带。Web上的搜索引擎和知识库是三级缓存。上面说到Memect以后可能会去造硬件,就是这个二级缓存硬件,把人脑里的记忆存根和二级缓存、三级缓存匹配。其实这样的硬件现在已经有雏形了,例如Google Glass + Google Now——只是还只是雏形,要有很大的变化才可能真正走向市场。

但是比硬件阻尼更难解决的是软件的阻尼:世界观。我们和别人通信困难,大部分的不是因为无法表达、懒得表达,而是因为每个人都有自己熟悉的组织方式,难以接受别人的组织方式。比如很多人会讨厌朋友圈,是因为朋友圈会强迫你去看那些和自己世界观不同的人的发言。从使用的语言、对事物的命名、对事物间关系的认识、逻辑的选择、背景知识的选择、立场的站队,到哲学的分歧,每个人的世界观都是有丰富的结构,但是把一个人的结构转化为另一个人容易接受的结构,却是非常非常困难的,远远比解决硬件的那些问题困难。一个人的世界观就是自己思想的内裤,把它套到别人头上就会恶心。

解决世界观的冲突是降低记忆互联的摩擦力的关键。在我看来,冲突的关键在于结构,如果一种通信的模式要求结构的共识(比如ontology),那这种通信就会比较困难,要求的共识越多,也就意味着要传递或共享的结构越多。应该尽可能地把通信中的结构变得简单。比方说,我们消化食物,是会把食物里的蛋白质分解掉,变成氨基酸,然后我们再重新组合这些氨基酸为我们所需要的蛋白质。一些蛋白质在被分解以前会让我们过敏甚至中毒。通信也一样,那些我们难以接受的结构会让我们“过敏”。

降低结构的冲突,一种方法是让人能尽可能自由地去选择自己容易接受的信息流,这些信息流可能是碎片(可以说它们是“记忆的氨基酸”)的集合,结构比较简单。比如微博之所以比传统的新闻媒体更容易传播内容,就在于它是比较碎的,可以通过组合产生大量的不同的信息流。这些信息流再经过读者(现在主要是人,以后可能越来越多是机器,比如我们的记忆二级缓存)的吸收,成为读者的记忆存根。

生成千千万万的高信噪比的或者容易不“过敏”的信息流,则需要智能的产生碎片、分组碎片、排序碎片、组合碎片的技术。这些技术现在被统称为“语义技术”。这将是Memect核心依赖的技术,也是下文将着重介绍的。

(7)从科幻到现实

前面几节,有人说比较科幻。其实在我看来,这些都不再是研究问题,而是工程问题。这里面没有太多当前的技术不能解决的点,而是有太多需要考虑成本和规模化的点。这最需要的是设计好一个产品的演进路径,如何从某些单点先突破,在某一个点上保持足够大的市场压强,然后bootstrap。早期一些语义项目的失败,就在于压强不够大,想一下子吃一个特别大的市场,这个很困难。

记忆的互联和Web发明人Tim Berners-Lee(这个名字以后还会出现很多次)提出的两个概念都有关系。这两个都是在他1999年的自传Weaving the Web里提出的。第一个是Social Machine(社会机器),就是人和机器协作,人做有创造性的部分,机器来做枯燥的那部分。他和我在RPI的博士后导师Jim Hendler有一篇文章“From the Semantic Web to social machines: A research challenge for AI on the World WideWeb” (2009 Artificial Intelligence)详细说了这个理念。最近几年办了好几次这个话题的研讨会。这个乍听起来很科幻的想法,现在一直在做工程化的努力,感兴趣的可以去看看http://sociam.org/ 。记忆的互联可以看作社会机器的一个子任务,用机器和人一起来完成记忆的分级存储和交换。

另一个概念就是Semantic Web(语义网)。2001年Tim,Jim和Ora Lassila 发表了那篇著名的“The Semantic Web”科学美国人论文,描述了当数据在网上可以被软件代理自动阅读,并自动分析帮助你决策的时候,现在的Web如何会演进为一个更智能的Web。当时大家低估了实现这个设想的困难程度,以为有了一个表达语言就可以完成这个工作。后来发现不是,Nova Spivack在2007年估计可能到2030年才可能实现2001年文章里提到的那些设想。他是估计2020年我们可以实现Data Web,就是把网页里面提取数据,嵌入数据实现,这个设想按现在的进步看来是可以实现了,也就是Knowledge Graph(知识图谱)。记忆的互联本质上就是构造一个个人知识的图谱,再把这些图谱切成碎片在人和人之间交换。

另一个比较科幻的概念是Personal Data Locker(个人数据仓库),是David Siegel 在Pull: The Power of the Semantic Web to Transform Your Business这本书提到的。他设想每个人从生到死,有一个属于自己的数据仓库在云里(虽然写这书时还没云这个概念)。然后人和人之间可以相互交换数据。他的书里写了很多如果这个技术实现了,那商业会有什么惊人的变化。不过他没有深入讲如何工程化这个设想。这和上面两个科幻概念不同,Social Machine和Semantic Web都有大量的研究者、程序员、公司来做开发,有政府大量的钱砸进来,大家不断在试错,来工程化、商业化。所以才会有懂这个技术的工程师被培养出来,现在被谷歌和微软这些大公司招去发展各种神奇的应用。个人数据仓库有几个小公司试过,很快也就死了。这个现在商业上还做不到。

把一个设想从科幻变成现实,需要的是工程上和商业上一步步的拆分、培育。我当年学电子工程的时候,老师讲到随时随地任何人任何媒体的通信,神乎其神,大家都觉得是科幻,结果十多年以后,智能手机把设个科幻给实现出来了。记忆的互联也是这样一种设想,是十年左右可以实现的。我们现在要做的,就是如何从其中剥离出一小块现在就可以做的技术来,切入一个细分市场,垄断这个细分市场。

(8) 邮件中的记忆

两年前我和D君创建Memect,便是在想如何寻找一个切入点,如何寻找一个细分市场去和资本结合,来实现记忆的互联这个最终的蓝图。虽然后来团队人员有所变化,这个大的方向一直没有变过。

最初我们设想的是从电子邮件入手。在中国电子邮件已经很衰落了,但是在美国,由于我们还不太理解的原因,电子邮件依然是工作和个人日常生活中不可或缺的通 信手段。在很多人那里,电子邮件其实承载了个人的数字记忆,家庭、医疗、旅行、学习、工作、购物、阅读等等,方方面面都被电子邮件记录下来。短期看来,电 子邮件在美国不会衰落,我们就想,如何能从这个大宝库入手,利用语义分析和知识建模的方法,帮助人们更好去管理个人信息呢?

邮件里有丰富的结构信息、实体信息、关系信息。把邮件切为记忆的碎片,用机器的方法过滤噪声,组织,重组织,会有很多有价值的应用场景。我们当时就写应用 实例的设想,写了60多个吧。在我们看来这个被革新过的邮件系统,其实已经不再适合为叫邮件了,只是它底层依赖邮件的通信协议,而上面的信息管理、人机交 互可以是一种一点也不像邮件的界面。为什么要用邮件做底层协议?因为邮件是目前唯一一种全球范围内可以互通互联的开放通信协议,XMPP等都做不到。而上 面的界面,突出了交互式的信息发现,把邮件里丰富的结构利用起来,帮助用户通信、联想、回溯。

但这件事往下做,很快就遇到实施的瓶颈。从盈利的角度,只有把这个系统做为一个企业级应用才能实施。无论是面向企业还是个人,因为要做深度的语义分析,需 要作为一个云服务来提供,这就需要或者用户充分的信任把隐私交给我们。这很难实施,至少对一个小公司如此。所以我们就转进了,先去切出一块对隐私要求不高 的模块,做短期内就能做的语义分析。后来演化为好东西传送门,再后来演化为文因互联做的企业信息服务,以后慢慢讲。

PS 对邮件多说两句。现在有很多想革新邮件的公司,大多是从社交化和界面的简化来入手,可以列出几十家来。但是这些公司没有发得地太好的。在我看来,邮件的两 大功能是信息优先级队列和回溯。这两个核心功能的改进,最需要的是增强邮件的智能性,而不是把界面做的更好看,或把邮件变成交友。邮件工具应该像个秘书, 帮你把那些最讨厌的事情干了,帮你把最核心的东西突出出来,帮你一目了然。这些东西都离不开语义分析。在语义分析的基础上可以构造全新的用户界面。那种东 西你叫不叫它邮件其实已经无所谓了。

(未完待续)