性别平等

2021年版
| 编辑: Walter Leal Filho, Anabela Marisa Azul, Luciana Brandli, Amanda Lange Salvia, Tony Wall

人工智能,性别和压迫

参考工作条目
DOI: https://doi.org/10.1007 / 978-3-319-95687-9_107
  • 10下载

定义

人工智能是创造一个与人类具有相同智能的人工代理的项目。它存在于我们日常生活的许多不同方面,例如虚拟助手、搜索引擎、游戏和医疗保健。压迫是一种特殊类型的伤害——它是基于群体和系统的。作为受压迫的社会群体的成员,人们面临着压迫性伤害(例如,性别、种族、社会经济阶层、性取向或能力)。通过虚拟助手、搜索引擎、机器人和算法等技术,人工智能正在助长基于性别的压迫。

介绍

自从成为主流以来,人工智能(AI)在短短几年内就对全球社会产生了巨大的影响。这项技术给了我们新的力量和能力来理解我们的世界,一些人认为它带来了一个更好的未来(讨论见Russell和Norvig)2019;Kaku2018)。然而,……

这是订阅内容的预览,登录检查访问。

参考

  1. 人工认知。劳特利奇,纽约谷歌学者
  2. Ahn S, Costigan A(2019)人工智能如何强化性别刻板印象:趋势概述。催化剂,2019年12月5日。检索:https://www.catalyst.org/research/ai-gender-stereotypes/
  3. Ali M, flounas I, De Bie T, Mosdell N, Lewis J, Cristianini N(2010)自动化新闻内容分析:性别偏见和可读性的应用。见:模式分析应用第一次研讨会论文集,第36-43页谷歌学者
  4. Andreallo F(2019)机器人具有福利:性别如何销售为同伴。谈话,2019年11月13日。从:https://theconversation.com/robots-with-benefits-how-sexbots-are-marketed-as-companions-126262
  5. Arrieta AB, Díaz-Rodríguez N, Del Ser J, Bennetot A, Tabik S, Barbado A, García S, Gil-López S, Molina D, Benjamins R, Chatila R, Herrera F(2019)可解释人工智能(XAI):负责任人工智能的概念、分类、机遇和挑战。188金宝搏beat官网施普林格。检索:https://arxiv.org/abs/1910.10045
  6. Bailey A(1998)特权:在Marilyn Frye的“压迫”上扩展。J SoC Philos 29:104-119CrossRef谷歌学者
  7. BAME Y(2017)1在4名男子中会考虑与机器人发生性关系。Yougov,2017年10月2日。从:https://today.yougov.com/topics/lifestyle/articles-reports/2017/10/02/1-4-men-would-consider-having- sex-robot.
  8. Bogost I(2018)对不起,Alexa不是女权主义者。2018年1月24日大西洋。从:https://www.theatlantic.com/technology/archive/2018/01/sorry-alexa-is-not-a-feminist/551291/
  9. 关键词:情感过程,情感模型,语用计算模型,情感建模188金宝搏beat官网施普林格,伦敦,英国谷歌学者
  10. Bryson J(2008)机器人应该是奴隶。in:wilks y(ed)与人工同伴密切合作。John Benjamins Publishing,阿姆斯特丹,第63-74页谷歌学者
  11. Buolamwini J(2019)人工智能对性别和种族偏见有问题。这是如何解决它的。时间杂志,2019年2月7日。从:https://time.com/5520558/ArtInge-intelligence- racial-gender-bias/
  12. 关键词:商业性别分类,性别阴影,交叉精度差异见:公平、问责和透明度会议,第77-91页谷歌学者
  13. Chakriswaran P,Vincent Dr,Srinivasa K,Sharma V,Chang C-Y,Reina DG(2019)情感AI驱动的情感分析:调查,未来的研究方向和开放问题。APPL SCI 9:6462CrossRef谷歌学者
  14. Cudd AE(1994)选择压迫。J Soc Philos 25.1:22-44CrossRef谷歌学者
  15. Dean W(2016)算法和计算机科学的数学基础。见:Horsten L, Welch P(编)Gödels分离:数学知识的范围和极限。牛津大学出版社谷歌学者
  16. Doshi-Velez F, Kim B(2017)面向可解释机器学习的严谨科学。188金宝搏beat官网施普林格。检索:https://arxiv.org/abs/1702.08608
  17. Feast J(2019)解决AI性别偏见的4种方法。Harv Bus Rev.检索自:https://hbr.org/2019/11/4-ways-to-address-gender-bias-in-ai%20/
  18. Fessler L(2018)亚马逊的Alexa现在是一名女权主义者,如果这让你难过了,她很抱歉。石英。检索:https://work.qz.com/1180607/
  19. Foster J(2018)我们让自己陷入了什么?媒介。检索:https://medium.com/microsoft-design/what-did-we-get-ourselves-into-36ddae39e69b
  20. Frank L,Nyholm S(2017)机器人性和同意:同意机器人与人类之间的性行为,可以想到,可能,可取的?ARIF INTEL LAM法律25:305-323CrossRef谷歌学者
  21. Frye M(1983)现实的政治。十字出版社,自由出版社谷歌学者
  22. 高希P(2020)性爱机器人可能会造成心理伤害。BBC, 2020年2月15日。检索:https://www.bbc.co.uk/news/science-environment-51330261
  23. Gürdeniz E, St-Onge E(2019)人工智能传播性别偏见的能力令人担忧。这里有四种方法来对付它。边缘——风险的边缘。检索:https://www.brinknews.com/ai-has-alarming-power-to-spread-gender-bias-here-are-four-ways-to-combat-it/
  24. Guynn J(2019)AI的问题?研究表明它太白,男性,呼吁更多女性,少数民族。Imdiversity,2019年4月16日。从:https://imdiversity.com/diversity-news/the-problem-with-ai-study-says-its-too-white-and-male-calls-for-more-women-minorities/
  25. Hay C(2013)康德主义、自由主义和女权主义。Palgrave Macmillan,伦敦,英国谷歌学者
  26. Hempel J(2015)因为性别歧视,Siri和Cortana听起来像女人。《连线》杂志。检索:https://www.wired.com/2015/10/why-siri-cortana-voice-interfaces-sound-female-sexism//
  27. Hill K(2020)错误地被算法指责。纽约时报,2020年6月24日。从:https://www.nytimes.com/2020/06/24/technology/facial-recognition-arrest.html
  28. Hoke N(2020) 5成功人机交互的移情设计原则。直觉机器人博客,2020年4月23日。检索:https://blog.intuitionrobotics.com/5-empathetic-design-principles-for-successful-human-agent-interaction
  29. Hudlicka E(2014)从习惯到标准:情感模型和情感架构的系统设计。情绪建模:情感过程的语用计算模型。188金宝搏beat官网施普林格,伦敦,英国谷歌学者
  30. Kaku M(2018)人类的未来:赤裸裸的火星,星际旅行,不朽,和我们的命运超越地球。Doubleday Books,伦敦,英国谷歌学者
  31. 情绪、理性与性别。网址:Filho WL, Azul AM, Brandli L, Özuyer PG, Wall T(编著)联合国可持续发展目标百科全书。188金宝搏beat官网施普林格谷歌学者
  32. Kinsella B(2019)Google Assistant本月应提供10亿设备 - 比Alexa多10倍。Voicebot.ai 2019年1月7日。从:https://voicebot.ai/2019/01/07/oologle-assistant-to-be-available-on-1-billion-devices-this-month-10x-more-than-alexa/
  33. Lai CK,Hoffman Km,鼻子Ba(2013)减少隐式偏见。SoC个人心理罗盘7:315-330CrossRef谷歌学者
  34. Leavy S(2018)人工智能中的性别偏见:机器学习中的多样性需求和性别理论。见:ACM/IEEE第一届软件工程性别平等国际研讨会谷歌学者
  35. 李(2018)以防你想知道,与机器人的性关系可能并不健康。福布斯,2018年6月5日。从:https://www.forbes.com/sites/brucelee/2018/06/05/in-case-you-are-wondering-sex-with-robots-may-not-be-healthy/#4990f5521f6b
  36. Mitchell W,Ho CC,Patel H,MacDorman KF(2011)社会渴望偏见有利于人类吗?综合演讲的明确解释支持新的印模管理的新HCI模型。计算HUM表格27(1):402-412CrossRef谷歌学者
  37. Molnar C(2019)可解释机器学习:使黑盒子模型可解释的指南。精益出版,维多利亚,加拿大谷歌学者
  38. Noble SU(2018)压迫算法:搜索引擎如何强化种族主义。纽约大学出版社,纽约CrossRef谷歌学者
  39. 嘿Alexa,名字里有什么?我们就叫你亚马逊吧。Xconomy。检索:https://xconomy.com/national/2018/01/23/hey-alexa-浏览-call-you-amazon/whats-call-you-amazon/
  40. Russell S, Norvig P(2019)人工智能:现代方法。皮尔森,埃塞克斯谷歌学者
  41. 女性承受不必要的痛苦,因为几乎所有东西都是为男性设计的:这就是为什么女性在心脏病发作后被误诊的可能性要高50%,在车祸中死亡的可能性要高17%。嗓音。检索:https://www.vox.com/future-perfect/2019/4/17/18308466/invisible-women-pain-gender-data-gap-caroline-criado-perez
  42. Sánchez-Escribano MG(2018)工程计算情感——人工系统中情感的参考模型。188金宝搏beat官网施普林格可汗,瑞士谷歌学者
  43. 沉FX(2019年)性机器人在这里,但法律并没有跟上他们提高的道德和隐私问题。谈话,2019年2月12日。从:https://theconversation.com/sex-robots-are-here-but-laws-arent-keeping-up-with-the-ethical-and-privacy-issues-they-raise-109852
  44. 人工智能就是未来——但女性在哪里?连线,2018年8月17日。检索:https://www.wired.com/story/artificial-intelligence-researchers-gender-imbalance/
  45. 美国一项研究称,许多人脸识别系统都有偏见。纽约时报,2019年12月19日。检索:https://www.nytimes.com/2019/12/19/technology/facial-recognition-bias.html
  46. Smith J, Farina L(2018)关于情感机器人的谜题:机器人能真正体验人类的情感吗?iai新闻69,2018年10月17日。检索:https://iai.tv/articles/a-puzzle-about-emotional-robots-auid-1157?_ga=2.23632122.1579874112.1539950664-1317334097.1539950664
  47. Thilmany J (2007) The emotional robot: cognitive computing and The quest of artificial intelligence。Eur Mol Biol Organ Rep 8(11): 992-994谷歌学者
  48. 联合国妇女(2013年)联合国妇女联合国妇女广告系列揭示了广泛的性别歧视。检索:https://www.unwomen.org
  49. Valentino-DeVries J(2020)警察如何使用面部识别,以及它在哪些方面存在不足。纽约时报,2020年1月12日。检索:https://www.nytimes.com/2020/01/12/technology/facial-recognition-police.html
  50. 文森特J(2020)嘿Siri,我被拉过来的'捷径让它变得容易录制警察。边缘。检索:https://www.theverge.com/2020/6/17/21293996/siri-iphone-shortcut-pulled-over-police-starts-recording-video
  51. West M,Kraut R,咀嚼他(2019)我会脸红,如果我通过教育关闭数字技能的性别分歧。教科文组织。检索:https://en.unesco.org/Id-blush-if-I-could
  52. Wilson M(2017)机器人真的能成为老年人的伴侣吗?快公司。检索:https://www.fastcompany.com/3067150/can-robots-really-be-companions-to- elderly-people.
  53. 如果你想知道,和机器人做爱可能不健康。福布斯,2018年6月6日。检索:https://www.forbes.com/sites/brucelee/2018/06/05/in-case-you-are-wondering-sex-with-robots-may-not-be-healthy/#6a53da561f6b

版权信息

©施188金宝搏beat官网普林格Nature Switzerland AG 2021年

作者和联系

  1. 1.圣安德鲁斯性别研究学院,Arché哲学研究中心圣安德鲁斯大学圣安德鲁斯大学英国

部分编辑和附属机构

  • 塔玛拉·亨特
    • 1
  1. 1.切斯特大学切斯特英国