谷歌近日揭晓了其最新研发的人工智能模型系列——PaliGemma 2,该模型不仅在图像分析领域展现出了卓越的能力,更引人注目的是,它还被赋予了“情绪识别”的特殊功能。
PaliGemma 2模型发布于上周四,谷歌在其官方博客上详细介绍了这一创新成果。据悉,该模型不仅能够准确识别图像中的物体,还能生成详尽且与图片上下文紧密相关的描述,包括人物的动作、情感以及整个场景的叙述。这一功能使得PaliGemma 2在图像理解和解释方面达到了新的高度。
然而,尽管PaliGemma 2的情绪识别功能颇具吸引力,但谷歌也坦言,这一功能并非直接可用,而是需要经过专门的微调。这一消息引发了专家们的广泛关注和担忧。情感识别技术的可靠性、偏见性以及其理论基础一直是业界争议的焦点。
多年来,众多科技公司纷纷投身于情感识别AI的研发,试图破解人类情感的密码。然而,尽管一些公司宣称取得了重大突破,但情感识别技术的基础——即人类基本情绪的界定和识别——仍然饱受质疑。心理学家Paul Ekman提出的六种基本情绪理论,虽然在一定程度上为情感识别提供了理论支撑,但后续研究却发现,不同文化背景的人们在表达情感时存在显著差异,这大大削弱了情感识别技术的普遍适用性。
伦敦国王学院的人工智能研究员Mike Cook指出,人类的情感体验复杂多变,情感识别在大多数情况下都是不可行的。虽然人们可以通过观察他人的表情和动作来推断其情绪,但这种方法往往带有主观性和不确定性,无法做到全面且准确的情感检测。
除了可靠性问题外,情感识别系统还面临着偏见性的挑战。一些研究表明,面部分析模型在处理不同表情时可能存在偏好,例如对微笑表情的过度识别。而更令人担忧的是,情感分析模型在处理不同种族面孔时也可能存在偏见。有研究表明,这些模型对黑人面孔的负面情绪判断往往比对白人面孔更多。
针对这些争议和担忧,谷歌表示,PaliGemma 2在发布前已经进行了广泛的测试,并评估了其在人群偏见方面的表现。谷歌声称,该模型在FairFace数据集上的表现良好,但这一数据集也受到了研究者的批评,认为其仅代表少数几种族群,存在偏见性。
AI Now研究所的首席AI科学家Heidy Khlaaf认为,情感识别是一件非常主观的事情,它深深植根于个人和文化背景之中,远非简单的视觉辅助工具所能胜任。她强调,在解读情感时,必须充分考虑个人的文化背景和情感体验,才能避免误解和偏见。
值得注意的是,欧盟的《人工智能法案》已经明确禁止学校和雇主部署情感识别系统,但允许执法机构在特定情况下使用。这一规定反映了欧盟对情感识别技术潜在风险的担忧和警惕。
随着人工智能技术的不断发展,情感识别技术的前景仍然充满未知和挑战。如何在确保技术可靠性的同时,避免偏见和误解,将是未来情感识别技术发展的关键所在。
谷歌PaliGemma 2模型的发布也引发了业界对人工智能伦理和责任的深入讨论。如何在推动技术创新的同时,保障个人隐私和权益,将是未来人工智能领域亟待解决的问题。