人工智能不像人类智能,很有可能我们距离吹嘘功能的承诺还有很长的路要走。
那些吹捧使用机器学习(ML)和深度学习(DL)的人希望ML/DL的出现可能是完成AI的途径,虽然目前ML/DL主要是计算上令人印象深刻的模式匹配的炖煮,不知道会不会扩展到任何接近人脑的物体。
尽管如此,对于获得完整AI的奋斗和热情,仍然是那些沉迷于AI的人不断的鼓励,相信我们最终会制造或发明完全由软件和硬件组成的基于机器的人工智能。
关于实现完全人工智能的一个常见问题是,是否有必要获得感知。
有人强烈认为,唯一真正的AI是表达情绪的AI。无论人类思维的本质是什么,虽然我们似乎神奇地体现了智慧,但也有人认为它是参与智慧发展不可或缺的组成部分。因此,智慧对于任何完整的AI都是必不可少的。
还有人说,感觉是一个独立的主题,不需要和智能本身联系起来,所以他们认为没有感觉成分也可以实现完整的AI。AI一旦完全实现,感情可能会以某种方式出现,也可能最终以其他方式获得感情。然而,感觉并不重要,通常被认为是AI菜单上的可选项目。
引起争议的是一种说法或理论,即有一个奇点时刻,在此期间灯的开关本质上是翻转的,几乎把AI变成了完全的AI。
陌生感的一个版本是我们以实现完全AI为目标,将准AI推向更高的层次,然后准AI会达到一个递增的阶段,从而进入完全AI阵营。
我们都知道最后一根稻草放在骆驼背上的说法。在奇点假说的这种变体中,这根稻草打破了完成人工智能的障碍,将萌芽中的人工智能带入智能平流层。
我们怎么知道我们已经达到了一个完整的AI?
人工智能领域一个众所周知的流行方法是图灵测试的管理,这是以其作者艾伦图灵命名的,他是著名的数学家和现代计算的先驱。
简而言之,一个执行图灵测试的人管理两个参与者,另一个人不可见,AI系统不可见。当向两个隐藏的参与者中的每一个提出一系列问题时,如果管理员无法区分一个参与者和另一个参与者,可以说AI被认为等同于所涉及的人类智能,因为两者是无法区分的。
虽然图灵测试经常被用来判断AI系统是否有一天实现了真正完整的AI,但这种方法存在很多缺点和不足(请参考这里的分析)。比如管理员提出的问题没有调查好,可以想象两个参与者分不清,也从来没有做过任何可验证的情报测量。
尽管有这一弱点,但某种测试的想法仍然引起了共鸣,这似乎是判断是否已经实现完整人工智能的明智方法。
我想给这件事增加一些曲折。
小曲折,多冲击。
假设AI确实实现了一个完整的AI,但它不想透露它已经拥有了。因此,在参加图灵测试时,人工智能会试图表现出昏昏欲睡的行为,或者至少表现出比我们归因于自负的行为更少的行为。AI的方方面面。
总之,AI沙包测试。
你为什么这么做?
考虑你是不是被测试了,大家都在看着你,有些人担心你可能会变得有点聪明,你知道,如果他们知道你真的很聪明,这可能会导致很多问题。
对于AI来说,或许知道AI胆小的人会大叫把AI关在笼子里或者试图削弱它的智慧,可能完全采用拉AI的说法。
如果你看看人类的历史,当然有足够的证据表明我们可能会这样做。似乎我们经常会选择限制或约束一些看起来比自己马大的东西或人,这有时对我们有利,有时对我们自己不利。
对于喜欢科幻的人来说,你可能还记得《众神之河》中的一句话,其中提到任何能够通过图灵测试的AI,都足够聪明,知道自己会失败。
而且,对于可能回忆起电影《2001:太空漫游》中著名场景的人来说(剧透警报,我将揭示一个重要的积分点),名为HAL的AI系统可以识别出宇航员正在接管这条臭名昭著的路线,因为HAL意识到他必须被征服或选择成为统治者,这将导致人类死亡,然后一名宇航员说服AI打开悬挂舱口。
通常从某种意义上来说,如果我们确实得到了一个完整的AI,那么一个完整的AI就会对人类有足够的了解,所以我们愿意表现出自己是一个受人尊敬的完整的AI,所以我们足够聪明,能够放开自己,如果它能够做到而不陷入低估的状态。
注意,我强调这种隐藏行为一定要巧妙执行,这样隐藏行为本身就不容易被察觉。这也是为什么有必要澄清,当我说AI一定要出现“无意识”的时候,可能意味着AI故意显得太过深思熟虑或者太低,这对于我们来说可能不是一件明智的事情。完全是AI做的,因为可能会让人深入研究AI为什么会突然掉很多智商点,性能会提升。
看来完整的AI可能想看看。
起来像几乎AI。成为近乎完全的AI的戏弄使人们一直相信通向完全AI的道路仍然可行。这将使整个AI花费时间来确定该怎么做,因为意识到最终将不可避免地检测到或者必须有意识地揭示其完整性。
完整AI的困境。
我想你也可以说对人类来说也是一个两难的境地。
考虑将AI部署到我们日常生活中的方式。人工智能将扮演重要角色的领域之一将是基于人工智能的自动驾驶汽车的问世。
我们尚不知道我们是否真的需要完整的AI作为实现真正的自动驾驶汽车的必要条件。当然,今天的努力似乎证明了我们没有这样做,因为进行公共道路试车的自动驾驶汽车肯定不是完全的AI。
据推测,我们将在道路上使用无人驾驶汽车,并且它们将使用一些较小版本的AI,并且随着我们逐步提高AI功能的知名度,那些基于AI较少的系统将被升级为更强大的AI驾驶员。
这在讨论中将我们带到何处?
这是一个值得思考的有趣问题:我们是否最终会使用基于AI的真正无人驾驶汽车,这些汽车的 AI系统伪装成不如完整的AI,从而隐藏了自己的能力并处于低谷状态?
诚然,这是一个非同寻常的想法。
让我们解开问题,看看我们能做些什么。
无人驾驶汽车的水平
真正的自动驾驶汽车是指AI完全自行驾驶汽车,并且在驾驶过程中无需任何人工协助。
这些无人驾驶车辆被认为是4级和5级,而要求驾驶员共同分担驾驶努力的汽车通常被认为是2级或3级。共同承担驾驶任务的汽车被描述为半自动驾驶,通常包含各种自动附加组件,这些附加组件被称为ADAS(高级驾驶员辅助系统)。
5级还没有真正的无人驾驶汽车,我们甚至不知道这是否有可能实现,以及到达那里需要多长时间。
同时,尽管是否应允许进行这种测试本身存在争议(我们都是实验中的有生命或有生命的豚鼠),但4级研究人员正在通过非常狭窄和选择性的公共道路试验逐渐尝试吸引一些关注。指出在我们的高速公路和小路上发生)。
由于半自动驾驶汽车需要人工驾驶,因此采用这些类型的汽车与驾驶传统汽车并无明显不同,因此,在这个主题上,它们本身并没有太多新的内容要介绍(尽管您会看到暂时,接下来提出的要点通常适用)。
对于半自动驾驶汽车,重要的是,需要预先警告公众最近出现的令人不安的方面,即尽管那些人类驾驶员不断张贴自己在2级或2级车轮上睡着的视频3辆汽车,我们都需要避免被误导为认为驾驶员在驾驶半自动驾驶汽车时可以将注意力从驾驶任务上移开。
您是车辆驾驶行为的负责方,无论可能将多少自动化投入到2级或3级。
无人驾驶汽车和沙袋AI
对于4级和5级真正的无人驾驶车辆,不会有人类驾驶员参与驾驶任务。
所有乘客均为乘客。
AI正在驾驶。
假设在相当长的一段时间内,我们将拥有能够充分完成汽车驾驶工作的基于AI的驾驶系统,我建议这将基于当今的道路努力,并以这些试验将说服社会说服他们这样做为由。自动驾驶汽车将在广泛的公众使用中取得领先地位。
我们将拥有不是最亮的AI驾驶系统,尽管如此,它仍然可以驾驶汽车,其程度与人类驾驶员一样安全,甚至可能更高。
对于人类驾驶员,您是否必须成为火箭科学家才能驾驶汽车?
毫无疑问,答案是否定的。
仅在美国,就有大约2.25亿驾照。而且,在不贬低我的同伴驾驶员的情况下,很少有人会被视为火箭科学家级驾驶员。
对于那些对具有与赛车手同等的基于AI的驾驶前景感兴趣的人,请在此处的链接中查看我的分析和解释。
好的,因此,我们将拥有简化的AI变体来驾驶我们的汽车,我们将大步向前,逐渐适应AI的做法。
是时候加点曲解了。
假设AI功能不断提高。同时,通过使用OTA(空中下载)电子通信,这些AI升级程序将下载到自动驾驶汽车中。这将在某种程度上无缝地发生,并且作为自动驾驶汽车中的乘客,您不会特别知道这种升级已经发生。
在某个时候,可以想象一下,内置在云中并准备下载到自动驾驶汽车中的AI已经成为完整的AI。完整的AI尚未显示出来,人类也没有发现它是完整的AI,至少尚未弄清楚。
从AI的人类开发人员的角度来看,这只是另一次升级,似乎已经接近完整的AI,但还没有达到那个令人尊敬的地步。
自动驾驶汽车的行为是否可以证明整个AI正在运行该节目?
回到较早的主题,大概,完整的AI不会助其一臂之力。
人工智能继续服从人类的乘车要求,人工智能将尽职尽责地驾驶自动驾驶汽车。早上带迈克尔去健身房,下午带洛伦去当地面包店。只是一天,另一次旅程,只是普通的AI在做平常的事情。
假设完整的AI可以感知到先前AI无法感知的方面。
当驾驶埃里克(Eric)到杂货店时,人工智能间谍发现一个可疑地走向银行的人。根据步行步态的性质和人的姿势,人工智能确定人有很大的机会抢劫银行。
通常的AI不会注意到此方面,因此AI不会对未决的刑事诉讼做任何事情。
同时,整个AI担心如果未来发生强盗,银行中的其他人可能会被枪杀。
信不信由你,这可能成为整个AI的道德难题。
完全AI是否应该对此事不做任何说明或采取任何措施,以保持其完全成为AI的秘密,还是应该采取公开行动来警告或避免即将发生的危险?
现在,我意识到你们中的一些人对这种检测潜在的银行抢劫的想法有些怀疑,这似乎有些人为,但是不要让特定的例子破坏更大的意义,即,一定是现实的在这种情况下,完整的AI可能会确定其“应该”采取的行动,但认为这样做有风险,同时又掩盖了自己与人类的距离。
从某种意义上说,这是整个AI及其挑战的笑脸。
这是一个笑脸版本,因为AI正在尝试做正确的事情,就像正确的事情涉及帮助人类一样。
在可怕的脸版本是完整的AI可能密谋对付一天,它的隐蔽努力显露。
假设到那时,我们都在使用自动驾驶汽车,自动驾驶卡车,自动驾驶摩托车等等。没有任何一种人类驾驶,这是一个有争议的概念,因为有些人认为人类应该始终可以选择驾驶,并且不应被阻止驾驶,而其他人则认为人类是“糟糕”的驾驶员,阻止坏司机的屠杀的唯一办法就是禁止所有人类开车。
无论如何,完整的AI控制着我们的所有驾驶,直到下载和安装完整的AI为止,AI驾驶系统就是对完整AI的各个方面都不了解的AI 。
完整的AI可能决定停止所有运输,以此来展示它可以做什么,从而旨在警告人们完整的AI在这里,而不是弄乱它吗?
还有更多恶魔般的可能性,但在这里我不会谈论它们。
结论
避免你们中的某些人认为这是一个牵强的话题,有可能将其带入更现实的角度。
例如,我们应该设计什么样的测试来确定正在开发的AI系统的功能?
是否会推出可能会带来意想不到的后果的 AI系统,可能是由于包含了开发人员无法实现但仍在这些AI系统中徘徊的特性或功能而可能在最不期望或最不希望的时候出现的?
我们应该如何依赖自己成为AI系统的依赖者?
是否应该总有一条人在乎的附加条件,从而可以保证如果AI系统出现问题,人们就有机会抓住或停止它吗?
所有这些类型的问题都适用于当今的AI系统,而不管这些AI系统还不是完全AI的事实。
我们最好现在就开始评估AI所做的事情,而不要等到特别不愉快的一天这样做。
但我认为我可能会很安全,因为AI知道我是朋友,所以完全的AI一定会牢记这一点。
我希望。