牛津大学:人工智能应该享有人权保护
随着人工智能界目前发生的巨大变革,专家们开始寻找我们可能需要的新型保护措施,以便保护未来那些聪明得可怕且有潜在危险计算机和机器人。
但机器人真的需要我们的保护吗?英国牛津大学的数学家Marcus du Sautoy认为,就在机器的“思维”演变成某种与人类的智慧难以区分的东西时,我们可能需要为新一代科技提供某些道德和法律保护(通常这些被认为是“人类”的权利)。
Du Sautoy认为一旦复杂的计算机思维到达了一种与人类思维极其接近的水平,我们就有责任为机器寻求福利,就像我们为人类寻求福利一样。
他说“现在我们也许可以说这个物品有了它自己的感觉,也许到了某个阈值时刻它就突然有了意识。如果我们知道这些东西拥有一定程度的意识,那么我们也许不得不为它们介绍权利。这是一个令人激动的时刻。”
Du Sautoy认为神经系统科学等领域最近取得的进展,使得人类对人工智能的权利探讨变得必要起来。这位数学家称新技术已经让我们对思想和意识等自然心理过程有了更清晰的了解,这意味着它们不再是哲学家专属探讨范围。
他表示“过去十年来,我们对意识的了解知之甚少,因为我们不知道该怎么去测量它。但现在我们处于一个黄金年代,这就像伽利略有了望远镜一样。我们现在拥有可以观察大脑的望远镜,它能给我们机会看到我们从前看不到的东西。”
越了解意识,越意味着我们应该尊重各种形式的意识。不管它的基础是有机物还是合成物。
机器应该受到人权保护这一观点似乎是某个科幻片中的情节,但很有可能科学家们在未来几十年内就能研究出这些东西。最大的问题在于,计算机系统何时才能变得先进到它们的人工意识能够被人类识别并得到人类的尊重呢?
人们推测的时间框架从2020年到未来50年内某个时间段,虽然人工智能技术正在飞快发展,但没人能确切地知道它们什么时候才能有自己的意识。
Du Sautoy也无法推测出确切的时间,他说“我认为大脑发育中的某个东西可能就像个沸点,它可能是一个阈值时刻。哲学家们会说我们无法保证事物能够有感觉,也无法保证它们能够感觉到自身的存在。只能说所有的事物让我们觉得它们是活着的。但即便是在人类身上,我们都无法判定对方说的话属实