\ 技术以无数不同的方式改善了我们的生活。今天,由于自动化,我们比以往任何时候都有更多的时间(即使感觉不是这样!)来从事我们喜欢的活动。
\ 纵观历史进程,技术让基本工作变得更容易,为人们腾出越来越多的时间来创造、社交和放松。
\ 近年来,人工智能 (AI) 在推动自动化方面发挥了关键作用。
\ 随着技术的进步,它已进入几乎所有行业,从营销到医疗保健。人工智能提高了效率,并接管了许多人们不愿做的平凡任务。
\
但人工智能并非完全没有争议。
\ 近年来出现了一些合理的道德问题,了解这些问题很重要,这样我们才能制定潜在的解决方案。
\ 正如华盛顿大学信息系副教授 Chirag Shah 解释的那样,这些问题在道德上可能会变得非常复杂:
\
“近年来,随着人工智能应用程序在我们的世界中激增,关于什么是道德的、什么是合法的以及什么是社会可接受的问题开始出现——比以前更多。
\ 在工作申请表上询问某人的种族或性别可能是合法的,但使用这些信息来筛选他们是否合乎道德?
\ 这不是一个新问题或新问题,但考虑到我们开始依赖自动化流程的程度(例如,筛选候选人、预测犯罪意图、决定大学录取),这样的问题会带回关于道德的古老讨论。
\ 这一发展与大流行同时发生,但并非大流行时代独有。当然,由于大流行,一些问题变得更加明显。
\ 例如:不公平。我不确定我是否可以说,就人工智能而言,由于大流行,我们正在进入一个更加数字化的世界。过渡已经在进行中,也许大流行只是放大了它。”
\ 以下是随着人工智能的进一步发展,我们需要考虑的许多道德因素中的一些。
\
人工智能的偏见
\ 人工智能最大的问题之一是它不能完全客观。人工智能是由人类开发的,它与我们一样具有嵌入其中的偏见。
\ 这些偏见可能是无意的,但它们已经导致了几个严重的问题。
\
这方面的一个例子是,用于预测犯罪行为的软件(用于帮助法院进行决策过程) 被发现经常不准确并且对黑人个人有偏见。
\ 面部识别软件和金融算法也有类似的偏见。这些偏见对人们产生了改变生活的影响,包括无法获得贷款,甚至在符合条件时无法出狱。
\ 此类案例表明,将 AI 系统视为隐含中立是多么危险。认识到这些系统存在偏见是迈向更公平技术的第一步。
\
网络犯罪和数据盗窃风险
\ 我们大部分时间都在网上生活,并信任各种私人组织,将我们最重要、最敏感和最个人的数据。
\ 虽然这些数据应该受到保护并且主要是为了方便起见而存储,但数据盗窃可能而且确实每天都在发生。
\ 从EHR(电子健康记录)到信用卡信息,我们只需要希望存储我们信息的组织已经投资于良好的网络安全措施。
\ 不幸的是,每年发生的数据泄露事件表明,网络安全措施总体上是多么缺乏。
\ 除了数据盗窃外,网络犯罪分子还可以将被黑客入侵的人工智能用于自己的目的,并造成重大伤害。可能获得自动驾驶汽车、无人机或武器控制权的黑客可能会造成严重破坏,而不必亲近他们控制的机器。
\
人身安全
\ 由人工智能驱动的自动驾驶汽车正在上路。虽然其中大多数仍然需要驾驶员在方向盘后面,但由于“驾驶员”疏忽而发生了撞车事故。
\ 然而,随着自动驾驶汽车的进步,将会出现更多涉及复杂伦理问题的人身安全问题和碰撞事故。
\ 随着智能城市变得越来越普遍,人工智能故障导致的物理安全也可能成为基础设施的一个问题。虽然不可能避免所有事故和技术故障,但我们必须决定可以接受多少风险。
\
决定责任
\ 在涉及人工智能的问题中,很难确定谁对人工智能的决策和行动负责。
\ 显而易见的选择是程序员,但这会导致围绕 AI 本身以及它在人类社会中应该拥有多少权力的许多其他问题和担忧。
\ 毕竟,一旦人工智能和机器学习开始进化他们的系统并变得更聪明,程序员还有错吗?是否应该有人监督系统的工作,以便他们可以监控其过程和决策?
\ 这些问题仍然悬而未决,因为我们看到了人工智能影响我们世界的所有不同方式。
\
当人工智能不需要我们时会发生什么?
\ 最终,当人工智能变得与人类一样聪明或更聪明时,一些最大的担忧源于人工智能的伦理道德。
\ 这还有很长的路要走,但许多人都担心从裁员到我们作为人类应该如何对待像我们一样聪明的人工智能的道德规范。
\ 猜测只会到此为止,因为我们还不知道那种世界会是什么样子,但考虑可能性很重要。
\
人工智能开发中的道德与责任
\ Shah 副教授清楚地指出了在人工智能应用程序失败后可以巧妙地免除开发人员责任的语言差异:道德与负责任。
\ “我想小心不要将两个经常相互使用的术语混为一谈:如今在讨论人工智能时,‘负责任’和‘道德’。
\ 负责任的人工智能通常是工业界的首选,因为它允许他们继续做人工智能,并简单地问,他们怎样才能更负责任地做这件事。
\ 道德人工智能,另一方面,深入到人工智能的根源,问我们是否应该这样做?”
\ 不出所料,如果可以的话,许多开发人员宁愿避免这个问题,因为这可能会损害他们继续工作的能力。然而,潜在的危害是巨大的,开发人员需要将道德放在他们所做的所有工作的最前沿。
\
遵循人工智能的道德准则
\ 在任何职业中,都必须遵守某些道德标准才能保持良好的信誉。例如,医生和护士对他们为患者提供的护理有自己的道德规范。
\ 这很重要,因为他们的决定有时会产生生死攸关的后果。财务顾问也必须遵守道德准则,因为他们的工作直接影响客户的生计。
\ 在 Shah 看来,AI 开发人员必须问自己更难的问题:
\ “人工智能的许多发展都围绕着技术及其能力。当我们考虑人工智能的伦理时,首先要问的问题是我们应该这样做吗?我们应该在公共场所使用面部识别吗?
\ 我们是否应该使用自动系统来建议我们是否应该保释或监禁罪犯?
\ 很大一部分考虑是由于偏见问题(在我们的数据和算法中)和给定人工智能系统缺乏透明度,哪些群体或个人会受到伤害?
\ 通常,人工智能系统是通过准确性、效率和可扩展性等指标来判断的。这些标准忽略了各种道德考虑,包括公平/平等、公平和问责制。”
\ AI 开发人员不像护士或财务顾问那样受到严格的监管,他们的工作到目前为止还没有受到仔细检查。
\ 这意味着当出现问题时,他们能够在几乎没有监督或后果的情况下构建他们的技术。
\ 尽管如此,关于人工智能伦理的讨论正在增加,任何对该领域感兴趣的人都必须遵循这些讨论并遵守伦理准则。
\ 创造可能产生负面影响的技术并在知情的情况下将其推向世界供人们使用是非常成问题的。那些在人工智能开发中忽视道德标准的人应该为他们造成的伤害负责。
\
围绕人工智能未来的挑战
\ 这一切对人工智能的未来意味着什么?根据 Shah 的说法,随着技术与社会的发展,我们需要继续进行这些对话。
\ “第一个重大挑战是我们自己对道德的理解。这些讨论至少从苏格拉底时代就开始了。它们是流动的(随时间变化)、高度上下文相关(取决于文化、社会规范),并且很难从概念理解映射到系统实施。
\ 例如,人工智能伦理的支柱之一是公平。关于什么是“公平”,有几十种定义和概念。无论采用哪种定义,都会有许多其他定义与此不同甚至相反。
\ 我们的人工智能系统无法在道德消歧和道德困境中工作。例如,如果自动驾驶汽车必须在不可避免的撞车事故中拯救成人还是儿童行人之间做出决定,它应该使用哪些参数?
\ 惩罚一个无辜的人是否比让四个危险的罪犯逍遥法外更合乎道德?我们社会面临着解决这些问题的挑战。然后将它们编码到人工智能系统中就更加困难了。”
\ 人工智能的困难在于,在试图模仿人类智能时,要求它做出符合道德的决定。这些决定不是程序性的,并不总是有简单的答案。
\ 许多人对机器做出道德决定的想法感到不舒服,即使人工智能技术让他们的生活更轻松。
\ 随着人工智能的进步,可以预期会有更多的监管监督。政策发展缓慢,而技术发展迅速。
\ 我们已经习惯了人工智能在我们生活中的存在,这种存在只会越来越多。尽管如此,我们仍不能忽视伦理问题,必须直面这些问题,以确保人工智能为我们服务,而不是造成比它解决的问题更多的问题。
原文: https://hackernoon.com/the-development-of-ai-balancing-convenience-and-ethics?source=rss