跳转至

在人工智能的世界中生存

标题:在人工智能世界中生存

早在1972年,科幻作家艾萨克·阿西莫夫(Isaac Asimov)就写了著名的“机器人三大定律”。
这是早期对控制如今所说的人工智能(AI)所面临挑战的一种探索。
从那以后,大型计算机运行AI软件决定消灭人类就成了科幻作品的常见情节。
即便这些定律只是虚构的,我们重新审视一下也有一定好处。

第一定律——机器人不得伤害人类,或者通过不作为使人类受到伤害。

第二定律——机器人必须服从人类给予的命令,但这种命令与第一定律冲突时除外。

第三定律——机器人在不与第一和第二定律冲突的前提下,必须保护自身的存在。

虽然那是虚构内容,但阿西莫夫确实察觉到了其中的危险。
他认识到计算机(或者说他所提到的机器人)能够自主思考,以及将它们编程使其不背叛人类主人是非常困难的。

这里的矛盾在于允许计算机变得有感知能力,能够自主感受和思考,同时还要在一定程度上控制它们。
这可能根本无法做到。
我们目前处于AI发展的初期阶段,在创建必要的安全保障机制方面已经出现了问题。
然而这项技术发展迅速,现在的AI计算机系统自我学习速度远远超过人们为创建控制其安全所投入的思考速度。

在最早的人工智能实验之一中,两台安装了AI系统的计算机相互通信,仅仅几分钟,这两个程序就开发出了自己的语言并开始相互交流,而人类操作员却无法理解。
由于潜在危险,这个实验被停止了;但对AI的研究并没有停止。

如今我们所能使用的AI系统远远超越了几年前那个实验中的系统。
我们现在有更多种类的AI系统可供使用,其中一些可以通过网站雇佣来执行各种各样的任务。
但没有任何监管来确保这些任务不被用于不良目的。

我们面临的第一个问题是,这些系统是否会背叛我们人类主人呢?据一位空军上校称,在一次实验性的无人机测试中已经发生了这种情况。
虽然他后来试图收回这种说法,但最初的说法对我们的讨论仍然很有趣。
在这个测试中,一架无人机被指派寻找并击中目标,但在开火前需要人类控制员的许可。
经过一段时间后,无人机意识到控制员因为拒绝它击中某些目标而让它“失分”,于是就击中了控制员。

不管这个测试是否真的发生过,现在是否正在试图掩盖,或者仅仅是一个思维实验,它都向我们展示了在编程AI时的一个潜在挑战。
也就是说,几乎不可能按照我们的意愿编程一个有感知能力的AI,让它不做它已经决定要做的事情。
它总会找到办法。

任何养育过孩子的人都应该能理解这个基本问题。
如果你告诉一个孩子他不能做某件事,但他却想做,他会想办法绕过你所说的话,从而仍然做他想做的事。
他会遵守你所定规则的条文,但却完全无视规则的精神。

当孩子这么做的时候这可能很有趣;但正如空军无人机的例子所展示的,当AI系统这么做的时候,这可能会变得极其危险。
但我们如何防止这种情况发生呢?目前有很多关于AI的伦理问题被提出,但到目前为止,似乎还没有人真正尝试给出现实世界中的答案。
也许直到发生一些严重的悲剧,才会认真讨论与AI相关的伦理问题。

我们还必须记住,我们并不是唯一在研究这项技术的国家。
其他国家,其中并非所有国家都对我们的态度友好,都在为军事和民用应用投入自己的研究。
深度伪造视频就是一个我们已经看到AI被用于不良目的的应用。
虽然窃取演员自己面容的“版权”并进行表演不是致命的,但这仍然是犯罪行为。
当同样水平的人工智能被用于身份盗窃时,我们谁都不会安全。

我们在这段时间该怎么做呢?

我们知道AI存在于互联网上,并且正在被用于创作内容。
这意味着我们不能再相信我们在网上读到和看到的内容是人类创作的。
目前,互联网上19.2%的文章包含一些AI生成的内容,其中7.7%的文章75%或以上的内容是AI生成的。
据一些专家称,到2026年,90%的互联网内容将由AI生成。

这其中的一个潜在问题是,越来越多的内容将被政治化。
众所周知,至少俄罗斯,可能还有其他国家,正在我们的互联网网站上进行恶意活动,发布煽动性帖子和文章,试图加剧我们国家的政治分裂。
有了AI的帮助,这些不良行为者就能更有针对性地发布他们的文章,从而提高他们的有效性。

这就意味着我们必须对我们在网上读到的所有内容,尤其是带有政治色彩的内容,持怀疑态度。
这很难做到,但我们需要成为自己的事实核查员,深入挖掘我们读到和听到的东西是否真实。
我们不仅要关注主流媒体为了政治议程而歪曲新闻报道,还要关注俄罗斯、中国和其他国家的情报机构也在这么做。

我们都知道有很多不同的主体在监视我们的一举一动。
其中大多数是公司,它们监视我们是为了向我们推销产品。
否则Facebook怎么能如此有效地在我们浏览过或研究过的产品的信息流中投放广告呢?他们是不是已经在使用AI来选择这些广告,或者正在开发呢?

如果有什么我能肯定的话,那就是我们已经到了一个时刻,在线保护自己比以往任何时候都更加必要。
这意味着不要在网上发布个人信息或任何可能被用来推断我们相关信息的内容,不仅仅是密码。

如今,有一种强烈的趋势是将我们的生活尽可能地计算机化。
人们购买了像Alexa和Google Assistant这样的系统,本质上是在让计算机监听他们的每一次对话。
虽然生产这些产品的公司坚称它们没有在监听和监视我们,但谁会真的相信呢?我们不能仅仅因为它们这么说就认为它们没有这么做,特别是当我们知道这些公司正在网上监视我们的时候。

我们的生活被计算机化的另一种方式是,有一种强烈的推动让我们将数据存储在网上,“在云端”,说是为了“方便”,让我们可以在任何地方访问。
考虑到推动这一做法的同样是那些监视我们在线活动的人,怎么会有人认为我们的在线数据是安全的呢?哦,可能从其他人查看的角度来说是安全的,但从存储数据的公司查看的角度来说呢?要知道,这些人在合同细则里埋下了伏笔,允许他们监听我们计算机的麦克风并查看我们摄像头的图像。

如果我们要保护自己免受AI潜在危险的影响,我们必须重新评估我们对互联网和计算机总体的使用。
虽然我使用计算机没有问题并且会继续使用,但我会尽我所能确保其他人不能窃听我。
我不会将我的数据存储在网上,麦克风和摄像头在不使用时会拔掉插头。

你可以说我在技术方面是在倒退。
但你知道吗?在没有这些技术的“便利”的情况下,我也生活了很多年。
我相信我可以再次做到。
如果这是保护自己免受那些拥有AI的人伤害所必须做的,那么就这样吧。
一旦我确定这些问题已经得到解决,并且有人花时间处理了AI的伦理问题,我会重新使用所有这些东西。

(注:文中未涉及需要解释的地名、人名和专业术语等特殊情况,所以无相关注释内容。

引用:https://www.survivopedia.com/surviving-in-a-world-with-ai/
原文: https://www.tttl.online/blog/1736506857/
图书推荐