凯·弗斯-巴特菲尔德谈负责任地利用人工智能的力量

Kay Firth Butterfield

(SeaPRwire) –   Kay Firth-Butterfield在人工智能与责任之间的交叉点工作了十多年,她对未来很有信心。“我不是人工智能悲观主义者。我相信如果我们做对了,它可以打开很多有益的大门,”她说。但她仍然很谨慎。去年,医生诊断她患有乳腺癌后,她很感激医生没有过分依赖人工智能,尽管它越来越多地用于评估乳房X光和MRI,甚至在规划治疗。Firth-Butterfield女士,现在已经治愈,当时虽然较少担心机器读取她的乳房X光,但她指出当前人工智能模型过分依赖可能存在问题,因为它们有时提供错误信息。她的外科医生也同意,她说。

Firth-Butterfield女士曾任法官和教授,已成为负责任人工智能领域的全球领先专家之一,致力于确保这些系统保持可解释和透明。去年4月,她结束了世界经济论坛人工智能和机器学习部门5年半的主管职务,在那里她制定了框架和手册,指导公司、国家和其他组织负责任地推进和使用人工智能。她为英国和巴西提供的咨询工作在法律中得到体现。她说:“如果你是政府,使用人工智能与公民打交道,那么你必须能向公民解释它是如何使用的。”2016年,Firth-Butterfield女士联合创立了负责任人工智能研究所,提供工具让组织可以建立安全可靠的人工智能系统,她还担任美国政府责任办公室人工智能事务咨询委员会成员,就科技相关问题提供咨询,并担任联合国教科文组织国际人工智能研究中心顾问委员会成员。

现在,她还运行Good Tech Advisory——与公司、政府、非政府组织和媒体合作,负责任地实施人工智能。这意味着帮助制定使用人工智能相关技术的指导方针,最大限度地减少潜在危害,同时最大限度地提高利益并确保合规性。

作为Good Tech Advisory CEO,Firth-Butterfield女士一直在帮助美国医院利用人工智能的潜在用途,包括阅读医疗图像和确定诊断。许多医院没有明确的指导方针,医护人员如何使用ChatGPT等程序,即使Firth-Butterfield女士指出这些工具往往提供不准确的信息。她说:“那些公司正努力解决一些真正重要的负责任人工智能问题。”医生利用人工智能高效地输入笔记和处理行政任务,可以留出更多时间照顾病人。但在高压环境下依靠人工智能提出诊断可能很危险。如果病人变得更糟或死亡,责任问题就成了问题。

如果人工智能不负责任使用,人们可能受伤——这主要影响女性和有色人种,Firth-Butterfield女士指出。有偏差的算法可能会阻止工人获得工作,不公平地拒绝房贷申请,或者根据面部识别做出错误的安全威胁决定。

Firth-Butterfield女士倡导的核心是了解人工智能如何影响社会最脆弱的成员。在世界经济论坛,她与儿童使用人工智能合作,并组织了一个智能玩具奖,敦促负责任地实施。她说:“我们允许孩子们玩启用人工智能的玩具,但我们对孩子在玩什么或数据去向一无所知。”

禁止在玩具或教室使用人工智能来保护儿童免受其潜在风险的影响不是答案,Firth-Butterfield女士说。“我们确实需要儿童在教育中使用人工智能,因为他们将来也会在工作中使用它。所以我们必须找到一种负责任的方式,允许机器与人之间的互动,”她说。但老师必须保持控制。“我们不能把教育完全交给人工智能;我们需要保持人在循环中,”她说。老师可能依靠人工智能进行后台管理,以便更多地关注帮助学生。

密切关注系统如何构建也很重要,但Firth-Butterfield女士也关注谁能参与。虽然超过1亿人使用ChatGPT,但仍有近30亿人无法访问互联网。她说:“我们正在以极快的速度增加数字鸿沟——不仅是全球北方和南方之间,也是国内不同地区之间。”尽管人工智能有可能革新学校教学和医疗患者治疗,但世界上很大一部分地区可能感受不到其影响。她说:“我们往往坐在象牙塔里谈论人工智能将如何做到一切伟大,而忘记了世界上很大一部分地区没有参与互联网革命。”

我们面临的未来在于这些决定如何使用和依赖人工智能,她说:“这关系到我们作为人类是否能建立我们想要的社会。”

这篇个人资料是TIME的时间100年影响力奖倡导者计划的一部分,该计划认可在各行各业推动变革的全球领导者。下一次时间100年影响力奖典礼将于2月11日在迪拜举行。

本文由第三方内容提供商提供。SeaPRwire (https://www.seaprwire.com/)对此不作任何保证或陈述。

分类: 头条新闻,日常新闻

SeaPRwire为公司和机构提供全球新闻稿发布,覆盖超过6,500个媒体库、86,000名编辑和记者,以及350万以上终端桌面和手机App。SeaPRwire支持英、日、德、韩、法、俄、印尼、马来、越南、中文等多种语言新闻稿发布。