什么是最危险的新兴技术?
- 2022-03-03 17:08
- 新浪科技
北京时间3月3日,据国外媒体报道,对于那些喜欢用末日思维思考的人来说,技术必将给文明带来灾难。诚然,我们可能永远不会看到通过CRISPR基因编辑技术出生的婴儿,失控的自动驾驶汽车,或者想要杀死人类的人工智能。但随着技术的加速进步,如果这一天真的到来,情况可能会远远超出我们的想象。但同时有一个问题值得思考:什么是最危险的新兴技术?我们来看看专家对此有什么看法。
泽菲尔蒂乔特 (福特汉姆大学法学副教授)
办公室监控。这种技术会造成严重的信息不对称,让雇主像实验室小白鼠一样监控员工,这将进一步恶化本已糟糕的上下级关系。雇主知道如何用不健康的方式刺激员工的工作,知道如何用更少的薪水提取更多的价值。这使得他们可以排除异己,区别对待疏远的员工。这种技术现在在职场上随处可见,如果不加以制止,很快就会泛滥成灾。
迈克尔利特曼 (布朗大学计算机科学教授)
在2021 AI100报告中,有一章描述了目前人工智能对我们最紧迫的威胁。这个由17名专家组成的团队认为,尽管人工智能系统在现实世界中的应用可以造福人类,但随着其应用范围的扩大,误用、过度使用和滥用的风险也会激增。
团队对人工智能最大的担忧在于所谓的“技术解决方案”,即“认为像人工智能这样的技术可以用来解决任何问题”的心态。很多人认为人工智能做出的决策是客观、中立、公正的,但这些决策可能应用不当,也可能是基于历史偏见甚至是显性歧视。如果数据或数据解读算法不够透明,公众可能被蒙在鼓里,不清楚这些决定会对他们的生活产生怎样的影响。
目前,人工智能系统已被用于在互联网上发布虚假信息,因此很可能对民主构成威胁,并被用作传播法西斯主义的工具。此外,如果不充分考虑人工智能中的人为因素,人们会在“不信任人工智能系统”和“过度依赖这些系统”之间来回摇摆。人工智能算法在器官分配、疫苗等医疗问题的决策中也有一定作用,很可能导致生死攸关的后果。
如果负责系统效果的个人或组织能在出现问题时承担主要责任,人工智能的危险可能会减轻。让所有利益相关者参与进来,会大大减缓人工智能解决难题的速度,但却是必不可少的一步,因为技术滥用的负面后果太严重了。技术专家和医疗行业一样,要坚决遵守“不伤害”的原则。
戴维沙姆韦琼斯 (哈佛大学流行病学教授)
至于谁能担得起“最危险的新兴技术”这个称号,显然有很多候选人。例如,CRISPR等基因编辑技术的效果可能没有其支持者声称的那么强大,但它可能会造成严重的损害。此外,社交媒体也显示了造成广泛伤害的力量。但最让我担心的是人脸识别技术在监控领域的大规模应用。在许多方面,这项技术是一项重要的社会资产。比如人脸识别可以提高交易效率。上飞机不需要出示身份证或登机牌,在商店购物也可以直接刷脸支付。人脸识别还可以加强社会安全,更容易发现和逮捕罪犯。
那么这项技术的危险在哪里呢?首先,我们的一举一动将不再私密,总会有人能知道我们在哪里,去过哪里。即使个人信息没有被滥用,隐私和匿名的丧失也会让人感到不舒服。此外,还有信息滥用的问题,这种风险是真实存在的。任何有权访问此信息的人都可能将其用于非法目的。从心理扭曲的追求者到政府部门,都有可能监控我们去了哪里,遇到了谁,甚至可以预测我们下一步的行动。而且我也怀疑这种技术的危害可能远远超出我们的想象。
瑞安卡罗 (华盛顿大学法学教授)
我认为最危险的信息技术是量子计算机。除了加密和解密,量子计算的危险并不新鲜。自超级计算机时代以来,量子计算对个人隐私的威胁一直在迅速增加。如今,有了足够的数据和处理能力,今天的计算机系统捕获私人信息的能力在不断增加。我担心利用量子计算技术,政府和企业会变成“福尔摩斯”,从公开信息中猜出我们所有的秘密。
艾米韦伯 (前景、趋势及情境规划公司Future Today Institute首席执行官)
最危险的新技术应该是生物学,或者更准确地说,合成生物学。这项技术的目标只有一个:用细胞写出新的(或更好的)遗传密码。合成生物学利用工程学、人工智能、遗传学和化学方法对生物身体部分或生物体进行重新设计,从而强化特定能力或创造新功能。利用一系列最新的合成生物学技术,我们不仅可以读取和编辑DNA代码,还可以编写新的代码。这意味着我们很快就能给生物体编程,就像它们是微型计算机一样。
合成生物学允许我们将DNA序列变成软件工具,就像Word一样,只是编辑对象是DNA代码。研究人员按照自己的想法写完或编辑完DNA后,新的d。
NA分子就可以借助3D打印机之类的技术凭空“打印”出来。这种DNA合成技术正在飞速进步中。如今的技术已经能常规打印出包含几千个碱基对的DNA链了,可用于建立新的细胞代谢通路、甚至足以构成一个完整的细胞基因组。这样可能会造成什么问题呢?用不了多久,我们就能编写出任何病毒的基因组。想到新冠病毒,这种设想似乎很吓人,但病毒不一定都是坏事。事实上,病毒只是盛放遗传编码的容器而已。未来我们也许可以创造出对人体有益的病毒,用于治疗癌症等特定疾病。
合成生物学将在气候危机和食物及水资源短缺中发挥重要作用。它将减少我们对动物蛋白质的依赖,最终还能实现药品定制化,人们的身体将成为自己的“药房”。
但合成生物学之所以是最危险的新兴技术,原因并不在科学本身,而是出在我们人类身上。这要求我们挑战现有的心智模式,提出一系列复杂艰深的问题,还要对生命的起源展开理性讨论,否则我们就会制造风险、错失机会。在接下来10年里,我们要充分利用数据、证据及科学精神来制定关键决策,比如制造哪些治病专用的新病毒、基因隐私是什么样的概念、以及谁拥有“生物体”的所有权等等。监管机构也要确定企业应如何从人工编辑细胞中盈利、以及在实验室中保存合成生物体需遵守什么流程。
我们本身在合成生物学中也扮演了重要的角色。如果你可以重新编辑自己的身体,你会做出什么选择?如果可以对你未来的子女进行编辑,你会不会对此感到困扰?如果食用合成生物可以缓解气候变化,你会接受吗?合成生物学将成为人类有史以来打造过最强大、最可持续的制造平台。我们如今正处于这场工业革命的风口浪尖。
杰伦·范登霍文 (代尔夫特理工大学伦理与技术教授)
我认为最危险的技术是那些阻挡人们了解世界和他人需求的社会或认知技术。这些技术容易导致人性的泯灭,使人们变得自私自恋、不为他人考虑。这些技术就像造雾机一样蒙住了我们的双眼,让我们对人类共同体和人类的责任视而不见。这些技术完全没有信仰可言。研发它们的人要么是被别人当成工具利用,要么极其天真幼稚,要么是同谋,要么就是伪造假象的大师、坚决否认人类未来可能遭遇的一切苦痛。
所以我认为,这些助长认知混乱的数字技术是我们面临的最大威胁。这些技术的危险性很容易被遮蔽或否认,因此大多数人都觉得没什么不对。而与此同时,其它真正能造福人类的技术反而会被污名化。暴君和恶棍饱受赞誉,英雄和救世主却被肆意抹黑。
有的人还未放弃抵抗气候变化、寻找抗疫方法、阻止医院利用人工智能分诊、揭露深层骗局等等。但这些人如今已难以辨明哪些才是真相、哪些做法在道义上可以接受。而多数人恐怕都早已放弃了对真相的追寻,变得温驯顺从、洋洋自满。
希德·约翰逊 (纽约州立上州医科大学生物伦理与人类学副教授)
异种移植(即将一种动物的器官和组织移植到另一种动物体内)一直被视作移植器官短缺的解决方案之一。有成千上万人在苦苦等待救命的器官,有些人最终熬不过漫长的等待、在这个过程中不幸逝世。从上世纪60年代到90年代,研究人员做了无数次将灵长动物器官移植给人类的尝试。但到目前为止,还没有患者在接受异种器官后存活下来。有人只活了短短几小时,有人坚持了几天活几周,原因之一在于免疫系统对新器官产生的排异反应、甚至可怕的超急性排异反应。
物种之间差异越大,排异风险越大,就像人类和猪一样,毕竟两个物种之间隔了8000万年的进化差异。但猪目前被我们视作较为理想的器官来源,因为饲养难度低,器官大小适合人类使用,并且每年被屠宰的猪本就达到了数亿头之多,所以为了器官杀死它们似乎也不存在太大的伦理道德问题。
灵长类动物与人类之间的遗传相似性会增加人畜共患病的感染风险。美国食药监局就明确禁止了将灵长类动物的器官用于异种移植。但猪也可能感染与人类相似的病毒,也可能传播人畜共患病。1998和1999年,马来西亚的养猪户中就爆发了一次因猪传播的尼帕病毒导致的病毒性脑炎,导致100人死亡、超过1百万头猪被扑杀。
新冠也是一种人畜共患病,可能先后跨越了好几个物种、最终才传播到人类身上,引发了这起已夺走数百万条生命的全球大流行,给医疗体系造成了重击,引发了一系列全球性社会经济动乱。目前,我们已在狗、猫、雪貂、黑猩猩、大猩猩、水獭、大型猫科动物、欧洲的人工养殖貂、以及美国的野生白尾鹿身上都发现了新冠病毒。
人畜共患病通过异种器官移植传播的风险是个十分严肃的话题,许多组织都建议对器官接受者、其密切接触者、以及参与移植过程的医疗工作者进行终生观察。观察的目的倒不是保护器官接受者本身,而是出于公共卫生考虑。因此异种移植是一项极其危险的新兴技术。在最糟糕的情况下,也许会爆发另一场全球性大流行病,造成灾难性后果。
除了异种移植之外,器官短缺其实还有其它解决方案,并且有些已经可以投入应用了,例如增加人类捐赠者的数量。还有些正在研发中(例如:体外培育人体器官,利用3D生物打印技术实现受损器官的体内修复和再生等等)。这些技术都没有造成全球大流行病的风险。而异种移植技术在经历了数十年的研究、以及无数次失败后,仍存在诸多疑点。如今新冠疫情已进入第三个年头,异种移植的疾病传染风险已经成为了一个重点问题,其危险性再怎么高估也不为过。
约翰娜·布莱森 (柏林赫尔蒂行政学院伦理与技术教授)
我认为最危险的新兴技术其实是各种国家治理形式。我们对社会控制已经有了充分的了解。有些国家对这些信息的使用主要出于好意,但有些则用其压迫和操纵少数群体、甚至削弱占多数群体的权力,无论是哪种方式,结果都很残酷。我们还要意识到,这种暴行也包括“文化种族屠杀”,即抹去人们留下的所有记录和历史、否认其祖先的存在和身份。这种做法虽然不一定会真的杀死这些人,但也会严重打击其蓬勃发展的能力。
要想解决这些问题,唯一的办法就是创新治理形式,鼓励合作行为,尊重基本权利。很多技术事实上都有“双重用途”。我们不能选择躺平、认为解决方案不在自己掌控范围内。在任何社会层级上,政治觉醒度和参与度都十分重要。而且有趣的是,我们利用社交媒体等工具,已经在很大程度上提高了人们的政治意识。所以我认为还是有希望的,只不过要做的工作还有很多。
伊丽莎白·希尔特 (伊利诺伊理工学院哲学教授)
最危险的新兴技术应该是某种能够脱离人类控制和监管的技术。技术不会奇迹般地凭空出现,本身也并不危险,危险之处其实在于设计、改造和部署它们的人类。
虽然有很多人猜测,未来可能会出现超级人工智能、对人类进行统治和支配,但我认为,新兴技术有很多更加实际的方法逃离人类掌控。
例如,技术的作用原理若不够透明,就很容易脱离我们的控制。此外,针对某一技术的功能和影响,制造商或企业也许会对公众歪曲事实、或有所隐瞒。
人类的情感投入也可能导致失去对技术的掌控。我们与技术开展互动时,越是符合自己的直觉和情感,就越容易掌握这门技术。因此类人机器人常常会模仿人与人之间的互动方式。但如果赋予技术情绪等人类特征,可能会导致人类单方面的情感投入,使得人与技术之间的互动不再受理性主导、而是受感性因素驱使。在这类互动关系中,人类将成为更容易受伤害的一方。