关注我们.

计算机技术

OASI,第一个找到政府和公司对公民使用的算法的搜索引擎

共享:

发布时间

on

我们使用您的注册以您同意的方式提供内容并增进我们对您的了解。 您可以随时取消订阅。

  • 由 Eticas 基金会创建的具有社会影响的算法观察站,OASI,从全球公共管理部门和公司使用的数十种算法中收集信息,以了解有关其社会影响的更多信息。
  • 目标是让公众访问有关政府和公司算法的信息,并了解谁使用它们、谁开发它们、它们代表什么威胁以及它们是否已经过审计,以及其他特征。
  • 算法偏见和歧视通常基于年龄、性别、种族或残疾等价值观而发生,但由于普遍缺乏透明度,仍然无法了解其对受影响群体的所有后果。

Eticas 基金会是一个促进负责任地使用算法和人工智能 (AI) 系统的非营利组织,它创建了具有社会影响的算法观察站 (OASI)。 该天文台引入了一个搜索引擎,以了解更多有关对世界各地的公民、消费者和用户做出重要自动化决策的工具的信息。

目前,公司和公共管理部门都通过算法实现决策自动化。 然而, 它的开发和调试没有遵循外部质量控制,也没有达到应有的透明度,这使得人们得不到保护。 使用这个搜索引擎,任何人都可以找到更多关于这些算法的信息:谁开发了它们,谁使用它们,它们的应用范围,它们是否已经被审计,它们的目标或它们的社会影响以及它们所代表的威胁。

眼下, OASI 收集了 57 种算法,但预计在接下来的几个月内将达到 100 种。 其中,美国政府和大型科技公司已经在申请了 24 项。 例如,ShotSpotter,奥克兰警察局部署的一种算法工具,通过声音监控麦克风打击和减少枪支暴力,以及宾夕法尼亚州阿勒格尼县使用的一种预测潜在虐待和忽视儿童的算法。 另一个来自企业的例子是亚马逊的面部识别系统 Rekognition,该系统在 2019 年初接受了麻省理工学院媒体实验室的审计,发现如果女性或肤色较深,在识别个人性别时表现要差得多。

最常见的歧视是基于年龄、性别、种族或残疾, 由缺乏社会经济技能来了解该技术影响的开发人员无意中制作的。 从这个意义上说,这些工程师仅根据技术技能设计算法,并且由于没有外部控制并且它似乎按预期工作,因此算法不断从缺陷数据中学习。

鉴于其中一些算法的运作缺乏透明度,Eticas 基金会除了启动 OASI 外,还在开发一个外部审计项目。 第一个是 VioGén,西班牙内政部使用该算法为遭受家庭暴力后寻求保护的妇女分配风险。 Eticas 将通过逆向工程和管理数据、访谈、报告或设计脚本进行外部审计,以大规模收集结果。 所有这一切的目的都是为了发现改善对这些妇女的保护的机会。

“尽管存在算法控制和审计方法来确保技术尊重现行法规和基本权利,但政府和许多公司继续对公民和机构的透明度要求置若罔闻,”Eticas 基金会创始人 Gemma Galdon 宣称. “除了 OASI,几年来我们为 Alpha Telefónica、联合国、Koa Health 或美洲开发银行等公司开发了十几项审计之后,我们还发布了算法审计指南,以便任何人都可以执行它们。 目标始终是提高意识、提供透明度并恢复对技术的信心,而技术本身不一定是有害的。”

从这个意义上说,经过机器学习技术训练的算法使用大量历史数据“教”他们根据过去的决定进行选择。 通常,这些数据并不代表它们所适用的社会经济和文化现实,但在许多情况下,它们反映了一种不打算永久存在的不公平情况。 通过这种方式,该算法将根据其训练在技术上做出“正确”的决定,即使现实是其建议或预测存在偏见或歧视。

广告

关于 Eticas 基金会

Eticas 基金会致力于将指导社会的原则转化为技术规范,例如机会均等、透明度和非歧视性,这些原则都存在于对我们的生活做出自动化决策的技术中。 它寻求在不断变化的社会价值观、最新进展的技术可能性和法律框架之间取得平衡。 为此,它审核算法,验证法律保证适用于数字世界,尤其是人工智能,并开展大量工作以提高认识并传播对负责任的优质技术的需求。

分享此文章:

EU Reporter 发表来自各种外部来源的文章,表达了广泛的观点。 这些文章中的立场不一定是欧盟记者的立场。

热销