03
将“人性”推向创新的最前沿
Megorskaya和Savage均表示,通常,外包标签和培训人工智能模型的公司是不会选择与实际标记数据的个人进行互动的 。因此,公司把数据标签和注释任务留给第三方或外包的决定将使得其本身在人工智能负责任开发方面造成裂痕 。
Toloka认为,消除人工智能生产领域偏见并打破系统断开的循环,能够让人工智能和机器学习更具包容性和代表性 。
而他们也希望能够为这一变化铺平道路,并让开发工程师要求公司面对面地与数据标签商会面 。这样一来,能够了解到其数据和人工智能存在的用户多样性 。若公司技术影响到真实人员、地点和社区的可见性,工程最终将造成差距,而消除这一差距将为团队建造出更有利的发展 。
"在现代世界,非有效人工智能模型可以根据一小部分预选人员收集的一些数据进行培训,而他们一生都在做这个注释 。”Megorskaya说道 。
现下,Toloka正在构建数据表用以展示工人可能存在的偏见 。
“当您进行数据标签时,这些工作表会显示员工拥有的背景类型及可能缺少的背景等信息 。”Savage解释道,这对开发人员和研究人员来说特别有帮助,这样他们就可以做出决定,获得下次运行中可能缺失的背景和视角,使模型更具包容性 。
尽管每个数据集和模型中都涵盖无数种族、人员背景及经验似乎是一项艰巨的任务 。但对此,Savage和Megorskaya强调,对企业、研究人员和开发人员而言,增强公平和负责任的人工智能的最重要的方法就是让尽可能多的主要利益相关者参与进来,因为纠正偏见是比这项工作更困难的任务 。
【如何确保数据与人工智能的完整性?】“人工智能很难做到绝对负责和合乎道德,但尽可能贴近这一目标十分重要 。”Megorskaya表示,需要拥有尽可能广泛和包容的代表性,以便为工程师提供负责任地有效构建人工智能的最佳工具 。
推荐阅读
- 如何修改WordPress后台的登录界面?
- golang如何将http请求流转到gin
- 如何购买一台性价比较高的电脑
- SQL如何删除重复数据
- 如何去掉电脑桌面的小黄锁?
- 露营|去哪儿五一大数据:露营类旅游产品预订涨幅超3倍
- 春季呼吸道疾病高发 老人小孩如何预防感冒
- 肝好不好看身体6部位 春季如何巧补肝
- 红茶柠檬的功效,红茶和柠檬蜂蜜的功效与作用
- 房屋未住物业费如何收?