找人做网站域名怎么过户,如何把官网,深圳市建设工程合同备案网站,网页开发三件套情绪调节人工智能是机器学习领域的最新技术进步之一。尽管它显示出巨大的潜力#xff0c;但道德问题将影响其采用率和寿命。人工智能开发人员能克服这些问题吗#xff1f;
什么是情绪识别人工智能#xff1f;
情绪识别人工智能是一种机器学习模型。它通常依赖于计算机视觉…
情绪调节人工智能是机器学习领域的最新技术进步之一。尽管它显示出巨大的潜力但道德问题将影响其采用率和寿命。人工智能开发人员能克服这些问题吗
什么是情绪识别人工智能
情绪识别人工智能是一种机器学习模型。它通常依赖于计算机视觉技术捕捉和分析面部表情以解读图像和视频中的情绪。然而它也可以对音频片段进行操作以确定语音或书面文字的语调以评估语言的情感。
这种算法代表了人工智能领域的一项令人着迷的进步因为到目前为止模型还无法理解人类的情感。虽然像 ChatGPT 这样的大型语言模型可以令人信服地模拟情绪和角色但它们只能将单词逻辑地串联在一起——它们无法感受到任何东西也无法表现出情商。 虽然情绪识别模型无法产生情感但它仍然可以检测和分类情感。这一进展意义重大因为它表明人工智能可能很快就能真正理解和表现快乐、悲伤或愤怒。这样的技术飞跃表明进步正在加速。
人工智能情绪识别的用例
企业、教育工作者、顾问和心理健康护理专业人士是可以使用人工智能进行情绪识别的一些群体。
评估办公室风险
人力资源团队可以使用算法对团队成员之间的电子邮件通信或应用内聊天进行情绪分析。或者他们可以将算法集成到监控或计算机视觉系统中。用户可以跟踪情绪来计算离职风险、倦怠率和员工满意度等指标。
协助客户服务人员
零售商可以使用内部 AI 客服代理为最终用户提供服务也可以使用虚拟助理来解决压力很大的情况。由于他们的模型可以识别情绪因此当它意识到消费者生气时它可以建议缓和情绪的技巧或改变语气。这些对策可能会提高客户满意度和留存率。
在课堂上帮助学生
教育工作者可以使用这种人工智能来防止远程学习者落后。一家初创公司已经使用其工具测量学生脸上的肌肉点同时记录他们的速度和成绩。这种方法可以确定他们的情绪、动机、优势和劣势。这家初创公司的创始人声称使用该软件后他们的测试成绩[提高了 10% 。(https://www.cnn.com/2021/02/16/tech/emotion-recognition-ai-education-spc-intl-hnk/index.html)
进行内部市场调研
企业可以使用情感识别模型进行内部市场研究。它可以帮助他们准确了解目标受众对其产品、服务或营销材料的反应为他们提供有价值的数据驱动见解。因此他们可以加快上市时间并增加收入。
使用人工智能检测情绪的问题
研究表明准确率高度依赖于训练信息。一个研究小组试图从图像中解读情感他们的模型在日本女性面部表情数据集上的准确率达到 92.05%在扩展的 Cohn-Kanade 数据集上的准确率达到 98.13%这证明了这一概念。
虽然 92% 和 98% 之间的差异似乎微不足道但它却很重要——这种微小的差异可能会产生重大影响。作为参考数据集中毒率低至 0.001已被证明可以有效建立模型后门或故意造成错误分类。即使是百分之几也是很重要的。
此外尽管研究看起来很有希望——准确率超过 90% 显示出潜力——但研究人员是在受控环境中进行的。在现实世界中模糊的图像、虚假的面部表情、不良的角度和微妙的感觉更为常见。换句话说人工智能可能无法始终如一地发挥作用。
情绪识别人工智能的现状
算法情绪分析是使用算法确定文本语气是积极、中性还是消极的过程。这项技术可以说是现代情绪检测模型的基础因为它为算法情绪评估铺平了道路。面部识别软件等类似技术也为这一进步做出了贡献。
当今的算法主要只能检测出快乐、悲伤、愤怒、恐惧和惊讶等简单情绪准确度各不相同。这些面部表情是天生的、普遍的——这意味着它们是自然的、全球都能理解的——因此训练人工智能识别它们相对简单。
此外基本的面部表情往往被夸大。人们生气时会皱眉悲伤时会皱眉高兴时会微笑震惊时会睁大眼睛。这些简单而戏剧性的表情很容易区分。更复杂的情绪更难确定因为它们要么很微妙要么结合了基本的面容。
由于这部分人工智能还处于研发阶段它还没有发展到能够理解渴望、羞耻、悲伤、嫉妒、宽慰或困惑等复杂情感的程度。虽然它最终可能会理解更多情感但并不能保证它能够解释所有这些情感。
事实上算法可能永远无法与人类竞争。作为参考虽然 OpenAI 的 GPT-4 数据集大约为 1 PB但人类大脑的 1 立方毫米包含约 1.4 PB 的数据。尽管经过数十年的研究神经科学家仍无法完全理解大脑如何感知情绪因此构建高精度人工智能可能是不可能的。
虽然使用该技术进行情绪识别已有先例但从技术上讲该领域仍处于起步阶段。关于该概念的研究很多但现实世界中大规模部署的案例却很少。一些迹象表明由于担心准确性不一致和道德问题该技术的应用可能滞后。
人工智能开发者的道德考量
根据一项调查67% 的受访者同意人工智能应该受到一定程度甚至更多的监管。为了让人们安心开发人员应该尽量减少偏见确保他们的模型表现符合预期并改善结果。如果他们在开发过程中优先考虑道德问题这些解决方案是可能的。
1. 自愿的数据收集和使用
在人工智能监管日益严格的时代同意就是一切。如果员工发现自己的面部表情在不知情的情况下被记录下来该怎么办家长是否需要签署基于教育的情绪分析还是学生可以自己决定
开发人员应明确披露模型将收集哪些信息、何时运行、分析将用于什么目的以及谁可以访问这些详细信息。此外他们还应包括选择退出功能以便个人可以自定义权限。
2. 匿名情绪分析输出
数据匿名化既是隐私问题也是安全问题。开发人员应该将收集的情绪信息匿名化以保护相关人员。至少他们应该认真考虑利用静态加密。
3. 人机交互决策
使用人工智能确定某人情绪状态的唯一原因是为决策提供信息。因此无论是在心理健康领域还是在零售环境中使用它都会对人们产生影响。开发人员应利用人机交互保护措施来最大限度地减少意外行为。
4.以人为本的人工智能输出反馈
即使算法的准确率接近 100%也会产生误报。考虑到模型达到 50% 或 70% 的情况并不罕见这还没有涉及偏见或幻觉问题开发人员应该考虑实施反馈系统。
如果人们认为人工智能对其情绪状态和诉求的评价是错误的他们应该能够对其进行审查。虽然这样的系统需要护栏和问责措施但它可以最大限度地减少不准确输出带来的负面影响。
忽视道德的后果
道德考量应成为人工智能工程师、机器学习开发人员和企业主的首要任务因为这会影响到他们。考虑到公众舆论越来越不确定监管越来越严格忽视道德的后果可能很严重。