人工智能(AI)正面临多样性危机。如果不及时解决,人工智能工作文化中的缺陷将延续渗入由此产生的技术的偏见,这将排斥和伤害整个人群。除此之外,由此产生的“智力”将存在缺陷,缺乏各种社会情感和文化知识。

在纽约大学AI Now研究所2019年的一份报告中,研究人员指出,超过80%的人工智能教授是男性。此外,黑人仅占谷歌员工的2.5%,占在Facebook和微软工作的4%。此外,报告作者指出,在讨论人工智能的多样性问题时,“对'科技界女性'的压倒性关注”“过于狭隘,可能使白人女性优先于他人”。

一些研究人员正在为变革而奋斗,但也有一种抵制他们努力的文化。总部位于柏林的技术咨询公司VDI/VDE Innovation + Technik的科学顾问Sabine Weber说:“在'哦,人工智能是未来,我们拥有所有这些闪闪发光的好东西'的外表下,人工智能学术界和人工智能行业从根本上都是保守的。”这两个部门的人工智能“主要由来自富裕背景的中年白人男性主导。他们真的依附于现状,”Weber说,他是人工智能倡导组织Queer的核心组织者。《自然》杂志与五名研究人员进行了交谈,他们正在带头改变现状,使人工智能生态系统更加公平。

DELALI AGBENYEGAH:支持非洲人工智能

佐治亚州亚特兰大Shopify的高级数据科学经理,也是2023年深度学习Indaba会议的总主席。

我来自加纳,2011年在俄亥俄州阿克伦大学攻读了统计学硕士学位。我的背景是使用机器学习来解决客户体验管理中的业务问题。我运用我的分析技能来建立推动客户行为的模型,例如针对客户的推荐系统,潜在客户评分的各个方面——潜在客户的排名,优先考虑哪些客户进行不同的沟通——以及此类性质的事情。

今年,我也是Deep Learning Indaba的总主席,这是非洲机器学习和人工智能社区的会议,每年在不同的非洲国家举行。去年,它在突尼斯举行。今年9月在加纳举行。

我们的组织是为整个非洲而建立的。去年,有52个国家参加了。目标是让所有54个非洲国家都有代表。深度学习Indaba使每个国家都能拥有一个由本地人驱动的网络。我们有旗舰活动,即年度会议,以及针对特定国家的IndabaX活动(想想TED和TEDx演讲)。

在加纳的IndabaX会议期间,我们培训人们如何编程以及如何处理不同类型的数据。我们还举办研讨会,讨论加纳以外行业正在发生的事情,以及加纳应该如何参与其中。IndabaX提供资金,并推荐为Deep Mind、微软和谷歌等公司工作的知名研究人员的演讲者。

为了加强加纳的机器学习、人工智能和包容性,我们需要通过培训年轻研究人员和学生来建立能力,以了解他们在这个领域出类拔萃所需的技能组合和准备。我们面临的头号挑战是资源。我们的经济地位如此之大,以至于政府和大多数加纳人的重点是人们的日常面包。大多数加纳人甚至没有考虑过技术转型。许多当地学者没有专业知识来教学生,无法真正将他们植根于人工智能和机器学习。

我们今天使用的大多数算法和系统都是由非洲以外的人创建的。非洲的视角缺失,因此,偏见影响了非洲。当我们进行与图像相关的人工智能时,可用的非洲图像并不多。非洲数据点占大多数行业机器学习数据集的不超过1%。

说到自动驾驶汽车,美国的道路网络很好,很干净,但在非洲,网络非常颠簸,有很多洞。在美国或英国道路上训练的自动驾驶汽车不可能在非洲真正发挥作用。我们还预计,使用人工智能帮助诊断疾病将改变人们的生活。但是,如果人们不去那里收集数据,不了解非洲医疗保健和相关社会支持系统、疾病和人们生活的环境,这对非洲没有帮助。

今天,人工智能和机器学习专业的非洲学生必须寻找奖学金,并离开他们的国家去学习。我希望看到这种变化,我希望看到非洲人参与决策,在机器学习和人工智能研究方面开创巨大突破。

非洲以外的研究人员可以通过指导和与非洲现有的努力合作来支持非洲人工智能。例如,我们有加纳NLP,该倡议专注于构建算法,将英语翻译成三十多种加纳语言。全球研究人员自愿为非洲特定研究贡献他们的技能,将有助于这样的努力。Deep Learning Indaba有一个门户网站,研究人员可以注册成为导师。

Maria Skoularidou在一次大型人工智能会议上努力改善可访问性。来源:Maria Skoularidou

MARIA SKOULARIDOU:拆除人工智能的能力主义文化

英国剑桥大学生物统计学博士生,人工智能{Dis}Ability的创始人和主席。

我在2018年创立了{Dis}Ability in AI,因为我意识到残疾人没有参加会议,感觉不对。我想发起这样的运动,这样会议就可以具有包容性和可访问性,像我这样的残疾人可以参加这些会议。

那一年,在加拿大蒙特利尔举行的神经信息处理系统年度会议NeurIPS上,至少有4000人参加了会议,我无法确定一个可以被归类为明显残疾的人。从统计学上讲,它加起来没有任何残疾参与者。

我还观察到了许多可访问性问题。例如,我看到了对色盲不体贴的海报。这个地方非常拥挤,使用轮椅、白手杖或服务犬等辅助设备的人将没有空间浏览海报会议。有电梯,但对于行动不便的人来说,考虑到场地的大小,进入所有会议室并不容易。也没有手语翻译。

自2019年以来,人工智能的{Dis}能力帮助促进了NeurIPS更好的可访问性。有口译员,并为有听力问题的人提供隐藏式字幕。为行动不便或视力受损的人提供志愿者护送,他们需要帮助。有热线辅导员和无声室,因为大型会议可能会让人不知所措。这个想法是:这是我们现在可以提供的,但请伸出援手,以防我们对某些事情不体贴,因为我们希望道德、公平、平等和诚实。残疾是社会的一部分,它需要被代表和包容。

许多残疾研究人员分享了他们对人工智能所面临的障碍的恐惧和担忧。有些人说,他们分享慢性病的细节不会感到安全,因为如果他们这样做,他们可能不会得到晋升,得不到平等的待遇,得不到与同龄人相同的机会,得不到同样的工资等等。其他向我伸出援手的人工智能研究人员受到了欺凌,他们觉得如果他们再次谈论自己的状况,他们甚至可能会失去工作。

来自边缘化群体的人需要成为人工智能过程所有步骤的一部分。当不包括残疾人时,算法的训练没有考虑到我们的社区。如果一个有视力的人闭上眼睛,这并不能让他们明白盲人必须处理什么。我们需要成为这些努力的一部分。善良是非残疾研究人员可以使该领域更具包容性的一种方式。非残疾人可以邀请残疾人发表演讲或访问研究人员或合作者。他们需要在公平和平等的层面上与我们的社区互动。

WILLIAM AGNEW和SABINE WEBER:酷儿人工智能

William Agnew是西雅图华盛顿大学的计算机科学博士生。Sabine Weber是德国埃尔福特VDI/VDE Innovation + Technik的科学顾问。他们是倡导组织Queer in AI的组织者。

Agnew:我在2018年帮助为NeurIPS组织了第一次Queer in AI研讨会。从根本上说,人工智能领域并不认真对待多样性和包容性。每一步,这些领域的努力都资金不足,被低估。田野经常保护骚扰者。

大多数在人工智能中从事酷儿工作的人都是研究生,包括我。你可以问:“为什么不是高级教授?为什么它不是任何事情的副总裁?”缺乏高级成员限制了我们的运营,也限制了我们有资源来倡导什么。

我们倡导的事情正在自下而上发生。我们要求提供不分性别的厕所;在会议注册徽章、演讲者传记和调查中加入代词;有机会进行我们的酷儿-AI体验调查,收集人口统计学、伤害和排斥的经历以及酷儿AI社区的需求;我们反对提取数据政策。我们,作为一群因同性恋而边缘化的同性恋者,也是我们领域中最年轻的人,必须从这些职位上倡导。

在我们的调查中,同性恋者一直将缺乏社区、支持和同行群体列为他们最大的问题,这可能会阻止他们继续在人工智能领域继续职业道路。我们的一个项目提供奖学金,以帮助人们申请研究生院,以支付申请费用,标准化入学考试,如研究生成绩考试(GRE)和大学成绩单。有些人必须飞往另一个国家才能参加GRE考试。这是一个巨大的障碍,特别是对同性恋者来说,他们不太可能从家人那里获得经济支持,并且经历了压制性的法律环境。例如,美国各州立法机构正在通过影响我们会员资格的反跨性别和反酷儿法律。

在很大程度上,由于我在人工智能领域与Queer的合作,我从机器人学家转变为伦理学家。酷儿人的数据如何使用、收集和滥用是一个大问题。另一个问题是,机器学习从根本上是关于对项目和人员进行分类,并根据过去预测结果。这些东西与同性恋的概念是对立的,在同性恋的概念中,身份是流动的,经常以重要和大的方式变化,而且在整个生活中频繁变化。我们反击,并试图想象不会抑制同性恋的机器学习系统。

你可能会说:“这些模型并不代表同性恋。我们只会修复它们。”但长期以来,同性恋者一直是不同形式的监视的目标,旨在外出、控制或压制我们,一个很好地理解同性恋者的模式也可以更好地监视他们。我们应该避免建立根深蒂固这些危害的技术,并努力开发赋予同性恋社区权力的技术。

韦伯:之前,我在一家科技公司当过工程师。我对我的老板说,在整个60名左右的开发人员团队中,我是唯一一个不是顺性别的人。他回答说:“你是唯一一个有资格申请工作的人。很难找到合格的人。”

但公司显然看起来不是很努力。对他们来说,感觉就像:“我们坐在高处。每个人都来找我们,献上自己。”相反,公司可以在同性恋组织、女权主义组织招募人员。每所大学都有一个科学、技术、工程和数学(STEM)女性团体或计算机团体的女性,公司可以很容易地进入。

但“我们一直都是这样做的;不要动摇船”的想法很普遍。这很令人沮丧。事实上,我真的很想摇晃船,因为船很蠢。遇到这些障碍真是太令人失望了。

劳拉·蒙托亚鼓励那些像她一样通过非常规途径进入人工智能领域的人。来源:Tim McMacken Jr(tim@accel.ai)

LAURA MONTOYA:进化以满足拉丁裔社区的需求

加利福尼亚州旧金山Accel.AI研究所和LatinX人工智能执行董事。

2016年,我创办了Accel.AI Institute,作为一家教育公司,帮助人工智能中代表性不足或服务不足的人。现在,它是一个非营利组织,其使命是推动人工智能进行社会影响倡议。我还共同创立了LatinX in AI计划,这是一个为该领域有拉丁美洲背景的人提供的专业机构。我是美国的第一代,因为我的家人是从哥伦比亚移民来的。

我的背景是生物学和物理科学。我从软件工程师开始了我的职业生涯,但传统的软件工程对我来说没有回报。就在那时,我发现了机器学习、数据科学和人工智能的世界。我调查了在不上研究生院的情况下学习人工智能和机器学习的最佳方式。我一直是一个另类思想家。

我意识到像我这样的人需要替代教育选择,他们不走典型的路线,认同自己是女性,认同自己是有色人种,想寻求使用这些工具和技术的替代道路。

后来,在参加大型人工智能和机器学习会议时,我遇到了像我这样的人,但我们占人口的一小部分。我和这几个朋友一起集思广益,“我们如何才能改变这种情况?”AI中的LatinX就是这样诞生的。自2018年以来,我们在主要会议上发起了研究研讨会,并与NeurIPS一起主办了我们自己的论文征集活动。

我们还有一个为期三个月的导师计划,以解决研究人员离开拉丁美洲前往北美、欧洲和亚洲导致的人才外流问题。我们社区的更多高级成员,甚至不是LatinX的盟友都可以担任导师。

2022年,我们启动了超级计算机计划,因为拉丁美洲大部分地区严重缺乏计算能力。为了我们的试点项目,为了在墨西哥蒙特雷理工学院的瓜达拉哈拉校区提供高性能计算资源的研究访问,总部位于加利福尼亚州圣克拉拉的科技公司NVIDIA捐赠了一台DGX A100系统——本质上是一台大型服务器计算机。墨西哥哈利斯科州的创新政府机构将托管该系统。当地研究人员和学生可以共享此硬件的访问权限,用于人工智能和深度学习研究。我们向团队发出了全球提案征集,这些团队包括至少50%的拉丁裔成员,他们希望使用这种硬件,而不必在研究所注册,甚至不需要位于瓜达拉哈拉地区。

到目前为止,已经选择了八个团队参加第一批,致力于包括拉丁美洲自动驾驶应用和动物保护监测工具在内的项目。每个团队都可以在他们要求的时间内访问一个图形处理单元或GPU,该单元旨在并行处理复杂的图形和可视化数据处理任务。这将是一个交叉合作的机会,让研究人员聚集在一起解决大问题,并善用技术。

 

内容中包含的图片若涉及版权问题,请及时与我们联系删除