导航菜单

潜在的神圣屎威胁周围的AI和ML

人工智能(AI)和机器学习(ML)是这个时代讨论的最具病毒性的话题。它在今天的科学家中引起了很大的争议,它们对人类的益处怎么强调都不过分。我们需要关注并了解围绕AI和ML的潜在“神圣诡计”威胁。

谁能想象有一天机器的智能会超过人类的智慧 - 一个未来学家称之为奇点的时刻?好吧,一位着名的科学家(人工智能的先驱),阿兰图灵,1950年提出 - 机器可以像孩子一样教。

图灵还在他最常读的题为“ 计算机器和智能 ”的论文中探讨了这个问题及其他问题的答案。

1955年,John McCarthy发明了一种名为“人工智能” 的编程语言 LISP。几年后,研究人员和科学家们开始使用计算机进行编码,识别图像,翻译语言等。甚至早在1955年,人们就希望他们有一天会让电脑说话和思考。

像Hans Moravec(机器人专家),Vernor Vinge(科幻作家)和Ray Kurzweil这样的伟大研究人员正在广泛地思考。这些人正在考虑什么时候机器能够设计出单独实现目标的方法。

像斯蒂芬霍金这样的伟人警告说,当人们无法与先进的人工智能竞争时,“它可能意味着人类的终结。”我会说,我们不应该做的事情之一是在建设上全力推进超级智能而不考虑潜在的风险。加州大学伯克利分校计算机科学教授Stuart J. Russell说,这感觉有点愚蠢。

以下是实施ML和AI的五种可能的危险以及如何解决它:

像机器学习和人工智能技术一样有前途,它的模型也容易受到意想不到的偏见。是的,有些人认为ML模型在决策方面是公正的。嗯,他们没有错,但他们碰巧忘记了人类正在教这些机器 - 而且从本质上说 - 我们并不完美。

此外,ML模型在处理数据时也会对决策产生偏见。你知道那些感觉有偏见的数据(不完整的数据),直到自学机器人。机器会导致危险的结果吗?

比如说,你经营一家批发商店,你想要建立一个能够理解你的顾客的模型。因此,您构建的模型不太可能违背区分商品的购买力。您还希望使用模型的结果在年底奖励您的客户。

因此,您收集客户购买记录 - 具有良好信用评分的悠久历史,然后开发模型。

如果您最信任的买家的配额碰巧与银行发生债务 - 他们无法按时找到自己的脚?当然,他们的购买力将直线下降; 那么,你的模特会发生什么?

当然,它无法预测客户违约的意外率。从技术上讲,如果您决定在年底使用其输出结果,那么您将使用有偏见的数据。

注意:在机器学习和数据偏见方面,数据是一个易受影响的元素 - 聘请专家为您精心管理这些数据。

另请注意,除了您之外没有人在寻找这些数据 - 但现在您的毫无戒心的客户有记录 - 而且您持有“吸烟枪”可以这么说。

这些专家应该随时诚实地质疑数据积累过程中存在的任何概念; 由于这是一个微妙的过程,他们也应该愿意积极寻找这些偏见如何在数据中表现出来的方式。但是看看你创建了什么类型的数据和记录。

2.修复模型模式。

在认知技术中,这是开发模型时不应忽视的风险之一。不幸的是,大多数开发的模型,特别是那些为投资策略设计的模型,都是这种风险的受害者。

想象一下,花几个月的时间为您的投资开发模型。经过多次试验后,您仍然可以获得“准确的输出”。当您使用“真实世界输入”(数据)尝试模型时,它会给您带来毫无价值的结果。

为什么会这样?这是因为该模型缺乏可变性。此模型使用一组特定数据构建。它只能与设计数据完美匹配。

出于这个原因,安全意识的AI和ML开发人员应该学会在将来开发任何算法模型时管理这种风险。通过输入他们可以找到的所有形式的数据可变性,例如,演示图形数据集[然而,这不是所有数据。]

3.对输出数据的错误解释可能是一个障碍。

对数据输出的错误解释是机器学习未来可能面临的另一个风险。想象一下,在您努力工作以获得良好数据之后,您就可以正确地开发一台机器了。您决定与另一方分享您的输出结果 - 也许是您的老板进行审核。

在所有事情之后 - 你的老板的解释甚至不是你自己的看法。他有一个不同的思维过程 - 因此与你的偏见不同。你觉得你为成功付出的努力是多么糟糕。

这种情况一直在发生。这就是为什么每个数据科学家不仅在构建建模时有用,而且在理解和正确解释任何设计模型的输出结果的“每一点”时也是如此。

在机器学习中,没有错误和假设的余地 - 它必须尽可能完美。如果我们不考虑每个角度和可能性,我们就会冒这种技术危害人类的风险。

注意:错误解释从机器发布的任何信息可能会给公司带来厄运。因此,数据科学家,研究人员和参与者不应该对这方面一无所知。他们开发机器学习模型的意图应该是积极的,而不是反过来。

实际上,许多科学家仍在试图了解AI和ML的全部内容。虽然两者仍在新兴市场中占据一席之地,但许多研究人员和数据科学家仍在挖掘更多信息。

由于对AI和ML的这种不确定的理解,许多人仍然害怕,因为他们认为仍有一些未知的风险尚未知晓。

即便像谷歌,微软这样的大型科技公司仍然不够完美。

Tay Ai是一款人工智能ChatterBot,于2016年3月23日由微软公司发布。它是通过Twitter发布的,与Twitter用户互动 - 但不幸的是,它被认为是种族主义者。它在24小时内关闭。

Facebook还发现他们的聊天机器人偏离了原始脚本,并开始用自己创建的新语言进行通信。有趣的是,人类无法理解这种新创造的语言。很奇怪,对吗?

注意:为了解决这种“存在威胁”,科学家和研究人员需要了解AI和ML是什么。此外,他们还必须在正式向公众发布之前测试,测试和测试机器运行模式的有效性。

机器永远存在 - 这是另一个不容忽视的潜在危险。AI和ML机器人不能像人类一样死亡。他们是不朽的。一旦他们接受了一些任务的培训,他们就会继续执行,而且往往没有监督。

如果没有充分管理或监控人工智能和机器学习属性 - 它们可以发展成为独立的杀手机器。当然,这项技术可能对军队有利 - 但如果机器人无法区分敌人和无辜的公民,无辜的公民会怎样呢?

这种机器模型非常操纵。他们了解我们的恐惧,厌恶和喜欢,并可以使用这些数据来对付我们。注意:AI创建者必须准备好承担全部责任,确保在设计任何算法模型时考虑到这种风险。

机器学习无疑是世界上最具技术能力的能力之一,具有很高的实际商业价值 - 特别是在与大数据技术合并时。

它看起来很有希望 - 我们不应忽视这样一个事实,即它需要仔细规划以适当地避免上述潜在的威胁:数据偏差,固定的模型模式,错误的解释,不确定性和操纵不朽的独裁者。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。