极客网·人工智能10月31日 英国信息委员会(ICO)日前向科技领袖发出警告,最好不要购买情感分析AI工具,因为这种技术并不像人们想象的那样有效,还有可能导致AI偏见和歧视。采用了这种技术的企业可能面临数据监管机构的审查和监管,除非他们能证明该技术的有效性。
情绪分析技术采用了许多生物特征数据点,包括注视跟踪、情绪分析、面部运动、步态分析、心跳、面部表情和皮肤水分水平等,并试图利用这些数据来确定或预测某人的情绪状态。
英国信息委员会副信息专员Stephen Bonner表示,问题在于没有证据表明这种方法确实有效,而且有很多证据表明它并不可靠。如果企业依赖于采用情感分析AI工具的调查结果,这更有可能导致错误的结果,从而造成伤害。
他警告,如果一家公司在工作中采用了情绪分析AI工具,那么它受到调查的门槛将会“非常低”。
“有时候当新技术被推广时,人们就会想,‘让我们拭目以待,并获得双方的理解’,对于其他合法的生物识别技术,我们绝对会这么做。但就情感分析AI而言,没有合法证据表明这种技术可以发挥作用。我们将极为密切地关注这一问题,并愿意更迅速地采取有力的行动。责任在于那些选择利用这一点向所有人证明这是值得的,因为无罪推定似乎根本没有科学依据。”他补充道。
但Bonner表示,有一些例子表明这项技术已经被应用或建议作为一个用例,包括通过提供可穿戴工具来监测工作人员的情绪和健康状况,以及使用各种数据点来记录和预测潜在的健康问题。
但是,尚未成熟的检测情绪线索的算法将导致系统性偏见、不准确和歧视的风险。该技术依赖于收集、存储和处理大量的个人数据,其中包括潜意识的行为或情绪反应。这种数据使用的风险远远高于用于验证或识别个人身份的传统生物识别技术。
需要指出的是,英国信息委员会并没有禁止使用这类技术,只是发出警告,由于涉及风险,实施这样技术的企业将受到审查。只要有明确的声明,用户可以将它作为噱头或娱乐工具使用。
Bonner说:“在生物测量和推断结果意图之间有一些区别。我认为,可以通过某人的声音来检测他的压力水平,这是有道理的。但是从这一点上来说,如果就这样判定他是骗子就有些太过分了。我们不会禁止使用AI来判断谁看起来不安的做法,但如果只是一些人感到不安,不推断他们试图通过自己的生物特征进行欺诈,那么这种做法是错误的。”
生物识别技术预计将对各行业领域产生重大影响,从金融服务公司通过面部识别验证人类身份,到使用语音识别代替密码访问服务。
英国信息委员会正在与Ada Lovelace研究所和英国青年委员会合作制定新的生物识别指南。该指南将会“以人为本”,预计将于明年春季对外发布。
艾伦·图灵研究所的伦理研究员Mhairi Aitken博士对英国信息委员会的警告表示欢迎,但他指出,同样重要的是要审视这些系统的开发,并确保开发人员采取符合伦理的方法,并在有需要的地方创建和使用工具。
她说:“开发技术或新应用程序的道德方法必须从哪些人可能是受影响的社区开始,并让他们参与这个过程,看看它在部署的环境中是否真的合适。这个过程让我们有机会意识到可能没有预料到的任何危害。”
Aitken博士表示,这种AI模型可能造成的危害是巨大的,特别是对那些可能不符合构建预测模型时开发的模型的人来说。她补充说:“这是一个非常复杂的领域,要开始思考我们如何将这样的事情实现自动化,并能够考虑到文化差异和情感差异。”
Aitken博士指出,AI系统很难确定在不同环境下什么的情绪反应是合适的,“我们表达情感的方式非常不同,这取决于我们和谁在一起以及所处的环境。此外,还需要考虑这些AI系统是否能够充分考虑人们的情绪表现方式。”
Bonner表示,在娱乐中使用情感AI工具的危害很小,但Aitken博士警告说,这种用例有其自身的风险,包括人们开始习惯于采用这项技术并认为它确实有效。“如果使用,除非明确地贴上娱乐的标签。”
Bonner补充说,当涉及到情感AI时,问题在于每个人之间有太多的数据点和差异,因此难以开发一个理想模型。有关这一点已经在多篇关于该技术的研究论文中得到了证明。“如果有人说,‘我们已经解决了问题,可以做出准确的预测’,那么他们可能会创造奇迹,但我认为这种事情不会发生。”
【以上内容转自“极客网”,不代表本网站观点。如需转载请取得极客网许可,如有侵权请联系删除。】
延伸阅读:
TOM2022-11-03 15:0011-03 15:00
TOM2022-11-03 14:4811-03 14:48
热点科技网2022-11-03 14:2711-03 14:27
TOM2022-11-03 14:1811-03 14:18