红色中国网

 找回密码
 立即注册
红色中国网 首页 经 济 查看内容

人工智能与人类未来

2018-12-13 00:04| 发布者: 龙翔五洲| 查看: 12436| 评论: 0|原作者: 冯象|来自: 文汇学人

摘要: 因为另一条路,资本主义私有制走到黑,恐怕阶级斗争只会益发激烈。当贫富鸿沟固化,财富高度集中,一切产品、服务连同物联网底层数据,彻底知识产权化,那会是什么景象?“超人”统治,法西斯暴政。阿西莫夫的“机器人三定律”,根本的一条,是机器不得伤害人类。
因为另一条路,资本主义私有制走到黑,恐怕阶级斗争只会益发激烈。当贫富鸿沟固化,财富高度集中,一切产品、服务连同物联网底层数据,彻底知识产权化,那会是什么景象?“超人”统治,法西斯暴政。阿西莫夫的“机器人三定律”,根本的一条,是机器不得伤害人类。但是按照资本主义的逻辑,机器如果比人聪明,学会了资本及其附庸的自私自利,它干吗老老实实伺候人类,而不“以其人之道还治其人之身”?所以我在书里说,待到那一天,AI的飞速进步,将迫使人类在改造世界的同时也改造自己,第二次起来,废除普遍的剥削与压迫,做共产主义新人。

欢迎来到硬规则世界…人工智能与人类未来

欢迎来到硬规则世界…做共产主义新人

这一代年轻人大学生,焦虑迷惘的不少。我希望,探索人机伦理能够帮助同学们找到人生的方向,从而当机器换人全面铺开之日,能够把阅读与思考化为行动的勇气。

——冯象

欢迎来到硬规则世界…人工智能与人类未来

这是一本新书,《我是阿尔法》,封面画着两个人:机器人高出一头,向人类伸出手来,可是那个抬头仰视的人身子僵直,不愿握手。

作者冯象先生说,

“原本草稿上,俩人是一样大的。后来我建议机器人大点,人小点。”

他说,

【国内学界讨论人工智能(AI),经常落入一个误区:把AI理解成了自动化问题。可是自动化,从发明轮船火车开始,产业升级“腾笼换鸟”的挑战,是人类社会一直在应对的,至少有200年了。人工智能之所以值得探讨,是因为地平线上升起了两片阴霾:大失业同AI军事化。终极的威胁则是,发展下去,人类可能会面临一个远比自己聪明的物种,其行为、性格与思想意识人绝对无法理解。这,才是新问题。

已故的麻省理工教授明斯基(1927~2016),人称AI教父,曾说:

【“智能的力量源于我们自身广博的多样性,而非某种独一无二的完美原则所赐”(The Society of Mind, 1986, p.308)。

在他看来,本质上,人的感情和心理意识跟演算、逻辑推理没什么不同,都是智能的表现形式。人们引以为傲的各种智能,都可以还原为神经元相互作用的过程。

今天,有了大数据的条件,机器学习和神经网络研究突飞猛进。机器可以撇开“人类标注样本”或人的学习模式,自己寻找规律;或者基于海量的数据集,自我学习,实现升级。围棋机器人AlphaGo Zero经过三天自学,左右手互搏,下出来的棋,聂卫平估计,棋力高达三十段。这是人类的顶级(九段)选手如果不借助机器,穷其一生也难以领会的棋艺。

近日,冯象先生接受《文汇学人》采访,谈论了人机未来,

【“如此精密复杂的机器智能,若是拿我们现在的法律规范跟教义学说,例如私法上的主体客体、侵权责任的认定标准,用这些教科书概念来讨论人机关系,分析各样后果,肯定是徒劳的。同样,人机伦理不能停留在抽象观念的推演建构,而应立足于人类社会在二十一世纪晚期资本主义阶段,所面临的深刻危机”。
“想象人机关系,即想象人类的未来”。

01

【“反抗只是一种姿态”

欢迎来到硬规则世界…人工智能与人类未来

文汇报:冯先生,我们先聊聊一则新闻,苏富比拍卖涂鸦艺术家Banksy一幅名作。小锤落下,买卖成交,那幅画却逸出画框,自行切割成了布条。画家说,他在画框里藏了个机关,意在抗议资本市场拍卖艺术品。没想到,拍卖品这么“毁掉”,身价反而更贵了。

这令人想起人类学家喜欢讲的一个故事:部落祭礼半当中,突然跳进来一头老虎,搅乱了仪式。过后,村民说起此事,老虎却被当成仪式的一部分。换言之,部落祭礼具有很强的阐释性,连危机也能包容。是否资本主义体系也有这个能力,可以消解形形色色的反抗呢?

冯象:对,谁也不知道这家伙是谁。他小心翼翼从不露面,而且搞了这么个机关,巧妙地“骗过”了拍卖行,做得非常漂亮。不过问题也在这儿——看上去像是造反,实则并没有逃脱被市场机制收编、为文化冷战利用的命运。

此类反抗,从毕加索开始,套路都差不多。当然毕加索厉害多了,“造反”的范围广,劲道大,还参加了共产党。徐冰先生说,当代艺术是“一块像癌细胞一样的东西”,寄生在“整个世界经济、政治、文化的大的利益结构之内”。这话说到点子上了。寄生体不可能改变宿主的利益结构,反抗只是一种姿态。

“那姿态其实是宿主体制运作的需要:那大体制需要一些癌细胞似的话语,包括行为艺术大腕儿什么的,来营造异见、贬低道德,或改写历史、转嫁责任”(《我是阿尔法》,页72)。

02

【“谁不机器换人,谁完蛋"

欢迎来到硬规则世界…人工智能与人类未来

文汇报:但您认为,真正有可能颠覆资本主义体系的,是人工智能。为什么?

冯象:人工智能的近期风险,首先是“机器换人”,波及的行业有增无减,故称“大失业”;再有就是AI军事化。但在全球资本主义体系下,这趋势是无法控制的。竞争太厉害了,谁也不敢落后;谁不机器换人,不军事化,谁完蛋。这两样,人类过去没经历过,一个非常痛苦,一个非常危险。

危险,还因为AI技术不仅是“大国重器”,同时也跟日常生活搅在一块儿。智能终端(如手机)渗透了我们的学习和工作、家庭内外,而且一刻不停,永远在记录,在挖掘,在上传。如今我们常态的人与人之间的关系,是人通过机器跟另一个人接触:打招呼、聊天、点赞、炫酷或者骂人吵架。人与人直接交流的范围在萎缩,而人机捆绑(包括人-机-人模式)的范围在扩大。直至我们每个人像一片电脑插件,插入一张无所不包的天网,由它发布的最新应用程序(app)来组织安排每日的生活。

03

【“之前,总体来说,人比较规矩"

欢迎来到硬规则世界…人工智能与人类未来

文汇报:这样一个通过机器和他人发生关系的智能社会,从法学角度看,有什么特点呢?

冯象:传统上,西方式法治社会是这样的,颁布法典,做到“有法可依”还不够;必须通过大众文艺和媒体反复灌输一套“真理”,诸如宪法至上、司法独立、“把权力关进制度笼子”之类,让老百姓内心形成规则意识,法律(包括恶法)才能得到普遍的遵循。不然,有法不依,法不责众,法治就成了皇帝的新衣。这好好干资本主义的规则意识,便是韦伯所谓资产者/发财奴的伦理,美其名曰“新教伦理”。不过,他是反果为因,说颠倒了,以为人是为了获拯救,才干下地狱的勾当即发财的。耶稣怎么说的?富人进天国,比骆驼穿针眼还难(《马可福音》10:25)。

智能社会不同,它是数码规则引领潮流,算法制定,硬性的。硬规则的制定和实施,大多是商家行为,无须走政治程序酝酿论辩、表达民意,也不靠公众/用户的内心约束或法治意识。你看我这手机,没有下载打车软件,我就被排除在了打车出行的硬规则之外。如需打车,就要请年轻人帮忙,获准进一趟硬规则世界。

中国社会,虽然宣布了法治“初步建成”,似乎还是硬规则占优势。相对本本上的法条或软规则,国人显然更认可“物理规则”。比如单位入口的路障、马路中央的隔栏,没有这些物理屏障即硬规则,光是立一块牌子,贴一纸告示,怕是不起作用的。这个现象,应了一句流行的口号,“法无禁止皆可为”。意谓凡法律(软规则)缺乏执行力的地方,什么事都做得,从高铁霸座、P2P骗局到“世界首例基因编辑婴儿”。常有人怪罪国人的民族性格。但回想起来,硬规则兴盛,软规则衰落,肇始于新时期,八十年代,是跟整个社会的职业伦理、政治伦理的消解同步的。因为之前,总体来说,人比较规矩。不像现在,家家户户门窗安得比动物园的铁笼子还严实。

04

【“反正衣食住行都离不开AI了”

欢迎来到硬规则世界…人工智能与人类未来

文汇报:像支付宝的推广,我们这里势如破竹,但在国外,包括发达经济体,互联网金融并没有这样容易被接受。

冯象:没错。习惯了硬规则,对于智能时代层出不穷的“便捷服务”,就不会太反感;自媒体网络舆论,也容易接受资本关于“万众创新”的宣传。智能产品的推广,不要求培育公众的法治意识。因为在我们依托AI建设的“美好新世界”——硬规则世界,日常生活中的每一次交易,都是数码信息的交换,用户都100%执行了硬规则指令:提交个人信息。

如此高效的执法,是“法治社会”没法抗拒的。原先受制于执法成本,很多事情“睁一只眼闭一只眼”。倘若严格执法(软规则当硬规则用),如欧盟今年实施的《通用数据保护条例》全面加强个人隐私保护,则不免拖累了智能产业。现时欧盟的AI研发跟市场占有,已经明显落后于美、中了。

智能社会,又名零隐私世界。扎克伯格看得很准,用户不在乎隐私,愿意拿它换取便利和舒适。反正衣食住行都离不开AI了,让它24小时追踪我们,收集一点个人隐私生理信息,又算什么?你想,按照旧的法治标准,隐私是多重要的权利,在许多国家属于宪法保护。可是这么快,大家就抛开旧法治,一键出让了隐私。如今好些大学的学生宿舍,进门都是人脸识别。还有不久前曝光的华大科技与华山医院,未经许可同牛津大学开展遗传资源的合作研究,违规收集孕妇基因信息,受到科技部行政处罚。基因信息也是个人隐私,但此类科研涉及重大公共利益,政府必须管一管。



鲜花

握手

雷人

路过

鸡蛋

最新评论

Archiver|红色中国网 ( 管理员信箱:qihang1921@yahoo.com )

GMT+8, 2019-1-21 06:07 , Processed in 0.018032 second(s), 12 queries .

E_mail: redchinacn@gmail.com

2010-2011http://redchinacn.net

回顶部