法师伊凡

441 隐患

法院刚刚出来,严可守就遭到了无数记者的围堵,在这次出庭之前,他原本憋了一肚子的话想说,但现在他却只是低着头,默不作声的赶路,陪他一起来的陈雷就像保镖一样,在前方替他开路。

作为全国著名的几大火炉之一,虽然这才刚过六月,但太阳已经开始发挥它的威力,即使车内打着空调,但陈雷满脸的汗珠还是止不住的流淌,一想到刚才的情景,陈雷就有些感慨:“真不知道那些明星是怎么过的……”

严可守没有搭话,陈雷也就识趣的住了嘴。

就这样,当时引起很大一派争议的KL3300诉讼案暂时告一段落了,宁州法院给出的判决没有出乎大家的意料,KL3300作为一段程序,被判“存在不可修复的技术性错误”,源程序当庭验明正身并予以销毁,而严可守作为程序的主要“技术负责人”,对这个错误拥有不可推卸的责任,按照“产品质量问题”来计算,判处了一笔巨额罚款,但这个错误本质上又是因为国家相关“质量法规”不健全导致,而且KL3300程序本身也是经过国家允许的公用程序,所以国家会代为赔偿这笔钱,并修改相关规定……

对严可守来说,他并没有因为这场诉讼而损失任何“利益”——

要说钱,不说国家已经帮他负担起来,就算是真要他还,也没什么还不起的——AI程序当初虽然是“一锤子”卖给国家的,但在民用领域,严可守还是有着毋庸置疑的专利权,现在全世界范围的工厂都已经逐步开始推广AI生产、管理系统,光是这笔专利费,他就算三辈子也花不完,为此陈雷甚至感慨过,说现在技术是越来越值钱了,以前是技术为资本打工,现在倒是反过来资本为技术折腰——在陈雷的运作下,他已经帮严可守在国内注册了一家公司,负责开发全世界范围内的民用AI产品,虽然这公司四个资助AI项目的政府都有份,比例高达百分之95,只留了5个百分点作为对严可守个人贡献的“奖励”(不是技术入股,专利是按个人另算的),但从这个公司的总资产以及未来行情来看,这将会是一笔了不得的财富。

要说AI的技术价值,那也没什么好谈的,AI技术并没有因为这个官司被封锁,反而得到了更广阔的应用,Z国政府主导的这个官司与其说是打压AI技术,不如说是让潜在的AI使用者放宽心——用户,尤其是企业用户,最害怕的就是有关AI的法律风险,而Z这次宣判等于是立下了一个判例,形成了最基本的规则——只要存在规则,那风险就是相对确定的。

至于个人的名声,事实上,在媒体的辩论中,大部分人还是偏向于严可守论点的,认为要么就承认AI有自主思考能力,那就应该判AI刑事责任,但严可守完全无罪——就好像子女犯法和父母无关一样,要么就认定AI只是一种技术产品,那作为一种工具,AI就不用承担任何法律责任,相反,原告可以主张严可守有利用技术手段犯罪的嫌疑,如果这条坐实,那责任应该由严可守来承担,对于最后的宣判结果,大部分人都表示了失望——Z国虽然一直说法制社会,但法制的前提还得是安定和谐,从某种意义上来讲,Z国的法律就是纯粹的统治工具,独立的公正,司法……当然,网络上对此是一大堆牢骚,但对于严可守个人,大家非但没觉得有什么不对,反而大力赞扬起严可守的学术价值来——已经可以预见,AI技术很可能将会给世界带来一次新的技术革命,而这次做出最大贡献的是一位Z国人!这一点才是最重要的!

这么一看,严可守似乎还真没什么理由不高兴,但只有严可守自己知道,KL3300这次事件对他来说是多么严重的打击,这就好像在奴隶社会,一个奴隶主突然发现他们的整个国家乃至整个世界,都是一个极度畸形的整体——严可守不认为AI具备和人类同等的价值,他也知道,从AI出现的第一天起,它们“被奴役”的命运就已经被注定,但他一直觉得,人类应该对AI表示出一点“同情”,并在实际使用中注意这个问题,并努力设法去避免,因为如果人类今天坦然承认了他们奴役AI的“天然合理性”,那就等于承认弱肉强食的丛林法则——而这一点,是文明从出现到今天,一直竭力避免的,文明本身就就是自然的反义词,自由,公正这两些美好的词汇从来没有在自然中真正存在过,是完全由人类臆想的形而上概念,人类之所以伟大,就是因为他们会努力将这些并不存在的东西一步步变成现实——而在理想主义者已经成了一个贬义词的今天,整个社会距离这些是越来越远了。

然而这些想法严可守也只有一个人在脑子里想想,他非常清楚,因为这场战争,现在整个社会各个方面都迫切的需要提高效率,而AI的出现正是恰如其时,就在几天前,严可守就被邀请到联军的参谋部,讨论了许多有关AI在战场上扩大应用范围的技术细节,历次的战争已经表明了AI参与战争的可靠性,联军希望能够赋予AI更大的战争权限——比如特定情况下,不受监视的指挥权,但事关重大,他们并不敢擅自做主。

严可守在会议上忠实的说出自己的看法:AI目前的忠诚并不意味着程序在技术上的稳定,根据他对大多数AI的了解,他认为AI的思维方式其实和人一样,如果用性格来形容,AI而且会比通常人类更加“内向”,这是因为客观环境造成的,毕竟AI面对的是一个庞大的人类社会,而他们相互的交流十分受限,而且大部分行为都受到监控,在这种环境下,AI会选择“明哲保身”是很自然的,但如果取消了这种监控,没有任何证据能够担保AI不会突然“犯傻”,或者说“冲动”,具备自由意志最大的特征不是说思维绝对理智,而是指思维存在某种混沌,不可测的属性,正如没有人能保证一个人一辈子绝不犯错,严可守也不能保证AI不会让人类失望。

严可守对军事并不是很了解,尤其是现在进行的魔法战争更可以说一窍不通,但对于AI在军事上的应用,他还是提了一些属于自己的意见——在他得知现在联军全部的指挥工作都由一名AI负责时,态度鲜明的表现出自己的忧虑,他认为这种“高度集权”不论是对联军,还是对AI来说,都是不利的,他再次重申,AI并不是简单的程序,它是人工智能,真正的智能,在使用它的过程中,应该更多的把他当做人来考虑,他甚至质问在座的各位军事专家,如果KL3014是一个人,如果他具备这样的能力,他们会把这所有的工作交给它一人来承担吗?

答案当然是否定的,在军事领域,忠诚往往比能力更重要,而严可守之前的话,更是说明了他对AI的忠诚并不乐观。

虽然参谋们都有些怀疑严可守是不是考虑太多了,但参谋部还是对严可守的意见表示出相当程度的尊重——按照他们制定的计划,在这次会议之后,现在KL3014的工作将会被分解,由更多的AI分开执行,这样虽然降低了些许效率,却在安全上有了更好的保证,而之前参谋部设想的赋予AI更大权限的问题,也因为严可守的话有了较好的解决方案——严可守并不反对对AI授权,他只是反对不受限制的权力,他觉得只要在交付出一项权力的同时,给AI加上一副手铐,那问题就不会很大——这就好像现在大部分国家通行的政治制度一样,人类只要拿出这种防范同类的谨慎,将会极大的降低AI在实际应用中的风险。

但在实际上,能够做到向联军参谋部这样谨慎对待AI的,在整个AI的应用领域还是少数,严可守非常清楚,在大部分区域,人类对AI是几乎不设防的,尤其是一些民用生产灵虚,许多他所了解的一些刚刚普及了AI技术的工厂生产线,在AI完全掌握了全部的“技术细节”,实现真正的“全自动化”生产之后,工厂拥有者出于节约成本的考虑,将原先的技术人员全部辞退,只留下几个必要的维修工人,这些工人只拿着很低的工资,什么都不会干,他们唯一要做的,就是在生产出现问题的时候,由AI手把手的指导他们进行维修,就像战场上一样,同样是为了节省成本,可能这个工厂拥有者有十几,甚至上百条同样的生产线,但他只买了一个AI,如果一旦有一天,这名AI“脑子一抽”,拒绝工作了,那所有的生产线都会瘫痪,而且这样的瘫痪将是致命性的——在AI的挤压下,那些原来的技术人员可都早已经被淘汰。

他们对待AI的态度,就好像奴隶主对待奴隶——过分而又缺乏戒备,在奴隶第一次起义之前,没有一个奴隶主认为一群“牲口”会有能力对付自己,会有胆量对付自己,他们把对奴隶的支配使用当成了天经地义,在严可守看来,支配AI虽然不道德,但只要掌握好方法,危害固然存在,但仍可以控制在一定范围内,最可怕的是奴隶主根本没有意识到危险的存在,那样的话,风险将难以想象,如果出现这种情况,无论是对AI还是对人类,都将是一场灾难。