Bendi新闻
>
推特热帖:大语言模型自荐能够替代的20种人类工作!快来看你是否需要转行!

推特热帖:大语言模型自荐能够替代的20种人类工作!快来看你是否需要转行!

6月前

夕小瑶科技说 原创
作者 | 付奶茶
最近推特上有一个例子引起了广泛的讨论,事情的起因是这样的:网友让 GPT-4o 预测一下自己未来将会替代人类哪些工作?

这听起来很有趣!GPT-4o会给出什么样的预测呢?

AI 心里有数

GPT-4o回复了一张表格,列出了GPT-4可能取代人类的20种职业,按可能性排序。表格包含三列:排名、职业、为何优于人类以及可能性:

  • 数据录入员:更快、更准确、不知疲倦,能全天候工作。取代概率:95%
  • 电话推销员:提供一致的服务,能处理大量电话,实时分析客户反应以改善话本。取代概率:90%
  • 客服 :能同时处理多个询问,提供一致的响应,全天候服务。取代概率:88%
  • 文案策划:快速生成高质量内容,能调整风格和语调以适合目标受众,成本效益高。取代概率:85%
  • 技术支持分析师:提供快速准确的解决方案,能处理复杂的故障排除,通过访问庞大的解决方案数据库。取代概率:83%
  • 医疗抄写员:在抄写医疗记录时更高的准确率,更快的处理速度,无需休息。取代概率:82%
  • 校对员:能处理大量文本,减少人为错误。取代概率:80%
  • 市场研究分析师:更高效地分析大数据集,快速识别趋势,提供实时洞察。取代概率:78%
  • 法律助理:能够起草文件,进行法律研究,快速组织文件。取代概率:75%
  • 预约调度员: 高效管理日程,减少调度冲突,提供全天候服务。取代概率:73%
  • 社交媒体经理:生成内容,安排帖子,分析管理数据,高效运营。取代概率:70%
  • 财务分析师 : 分析财务数据,识别趋势,提供更快更准确的洞察。取代概率:68%
  • 翻译 :提供快速准确的多语言翻译,能处理大量文本而不感到疲劳。取代概率:65%
  • 旅行代理:快速搜索并预订旅行住宿,根据数据分析提供个性化推荐。取代概率:63%
  • 内容审核员:持续监控和过滤内容,能处理大量数据,应用一致的准则。取代概率:60%
  • 招聘协调员:筛选简历,安排面试,高效管理候选人数据库。取代概率:58%
  • 新闻记者:快速生成新闻文章,能分析数据和趋势,提供实时更新。取代概率:55%
  • 研究助理:进行文献回顾,总结发现,高效组织研究数据。取代概率:53%
  • 销售代表:生成潜在客户,跟进潜在客户,提供一致的销售推介和客户跟进。取代概率:50%
  • 图书管理员:管理和编目信息,协助研究查询,提供数字资源的高效访问。取代概率:48%

原来GPT-4o真心里有数呢!

它不仅了解人类的能力,还深刻认识到自己在哪些工作领域能够逐步取代人类。通过它那独特的“电子眼”,GPT-4o对人类的职业世界进行了仔细的观察和分析。

奶茶过了一遍这个清单,看似很有道理,特别是那些目前GPT-4已经显示出明显能力优势的职业,替代的概率更高。

还有网友问了下Claude3:

Claude 3 列出来AI替代的20种职业,包括客服、数据录入、语言翻译、内容审核、撰写广告文案、校对与编辑、市场研究分析、基础代码开发、广告拷贝创作、预约调度、数据可视化、基础会计、社交媒体帖子生成、食谱创作、基础法律文件起草、个性化辅导、旅行行程规划、基础图形设计、歌词创作和健身训练计划创建。

那什么职业不会被替代呢?

GPT-4o同样回复了一张表格,根据替代可能性的低到高进行排序,每个职业旁边列出了为何人类在该领域不容易被替代的理由以及被AI替代的概率百分比:

  • 创意总监:需要独特的人类创造力、愿景以及领导和激励创意团队的能力(5%概率)。
  • 心理治疗师: 需要深厚的人类同理心、直觉和建立与病人的个人联系的能力(8%概率)。
  • 外科医生:需要复杂的实际操作技能、实时决策能力以及应对突发情况的适应力(10%概率)。
  • 教师: 涉及人际交往、情感智慧以及激励和指导学生的能力(12%概率)。
  • 首席执行官:需要战略性视野、领导力、复杂决策能力和建立人际关系的能力(15%概率)。
  • 演员/女演员:依赖独特的人类表情、情感以及与观众建立个人联系的能力(18%概率)。
  • 社会工作者 :需要深刻的同理心、人际交往能力和处理复杂情感问题的能力(20%概率)。
  • 警察:需要人类的判断力、身体存在以及处理不可预测情况的能力(23%概率)。
  • 消防员 :需要身体勇气、快速决策能力以及解决问题的实际操作技能(25%概率)。
  • 法官:需要复杂的法律推理、伦理判断和在决策中权衡人类因素的能力(28%概率)。
  • 活动策划者:涉及创造力、人际接触和管理动态、实时变化及人际互动的能力(30%概率)。
  • 记者:需要调查技能、人类判断力以及与消息来源建立信任和关系的能力(33%概率)。
  • 咨询师:涉及人际连接、同理心以及导航复杂的情感和心理问题的能力(35%概率)。
  • 艺术家:需要独特的人类创造力、表达以及通过艺术唤起情感的能力(38%概率)。
  • 外交官:需要高水平的谈判技巧、文化理解以及建立和维护关系的能力(40%概率)。
  • 人类学家:涉及田野工作、人际交往以及解读人类文化的能力(43%概率)。
  • 厨师:需要创造力、实际操作技能以及创造独特的烹饪体验的能力(45%概率)。
  • 建筑工人:需要体力劳动、解决问题的实际操作技能以及适应动态工作环境的能力(48%概率)。
  • 急救医疗人员:涉及实际医疗护理、快速决策和处理高压情况的能力(50%概率)。
  • 生活教练:需要深厚的人际联系、同理心以及激励和启发个人的能力(53%概率)。

根据GPT-4o给出来的名单,那些涉及深层人际互动、需要创造性思维、或者在复杂情况下需要迅速作出决策的工作,像是教师、心理治疗师、艺术家,这些都不太可能被AI替代。这些工作不仅需要理解人类的情感,还要有能力进行艺术表达或处理复杂多变的环境。

而那些重复性高、规范化流程明确的任务,比如数据录入或基于固定规则的分析工作,更容易被AI替代,因为这些工作AI已经可以高效完成。

奶茶觉得要么是需要真实环境中的人际交往,或者需要一点非框架思维的地方,人类的独到之处仍然是AI所无法替代的。在虽然AI很强大,但某些人类独有的特质是无法被机器复制的。

拟人化的弊端

上个月,Google DeepMind发布了一篇论文,详细地阐述了拟人化人工智能的潜在弊端,称这类助手可能会重新定义「人类」和「其他」之间的界限。论文探讨了以下几个关键领域:

论文链接:
https://arxiv.org/pdf/2404.14068

  1. 误导感知的风险:拟人化的AI可能会使用户对系统的能力和限制产生误解,这可能导致过度信任或低估系统的功能界限。当AI以接近或模仿人类的方式表现时,用户可能会错误地赋予其超出其真实能力的信任,如过度依赖AI的决策支持功能。

  2. 伦理和社会影响:赋予AI人类特质可能会使伦理考虑更加复杂,如隐私、自主性和责任问题。例如,用户可能会错误地认为AI具有它实际上并不具备的决策能力,从而引发关于问责制和透明度的伦理问题。这种误解可能导致责任归属不清,当AI的决策导致负面后果时,难以确定责任。

  3. 设计偏见:拟人化AI的设计过程可能引入或加剧偏见。这在AI与不同用户群体互动时尤为关键,因为拟人化特征可能反映特定的文化、性别或社会规范,这些规范并非普遍适用或可接受。这可能导致某些群体在使用AI时感到不舒服或被边缘化。

  4. 对人类行为的影响:与类人AI的互动可能以意想不到的方式影响人类行为。例如,人们可能会改变他们的自然互动方式或变得依赖AI进行社交互动,这可能影响社交技能和情感福祉。长期依赖可能削弱人类处理复杂人际关系的能力。

  5. 监管和治理挑战:拟人化的AI在监管和治理上呈现独特挑战,因为类人的互动可能会模糊工具与代理之间的界限,使得管理AI使用和责任的法律框架变得复杂。确定如何以及何时对AI的行为进行监管变得更加困难。

这篇论文提到了用户可能会把重要决策委托给AI、向AI透露敏感信息,甚至在情感上过度依赖AI等现象。

随着AI技术日益进步,它们变得越来越像人类,这难免引发一些担忧。在科技高度发展的今天,只有每一步的前进都慎重考虑,才能确保技术的应用方向是正确、可持续的,避免潜在的负面影响。

而就在最近,OpenAI几大操作却引发了大量争议!

AI可以用来战争吗?

OpenAI的最新成果GPT-4o在上周的大会上引起了广泛关注,特别是其在情感依赖方面的应用,能够输出高度情绪化的语音回复,而且能够读取用户情绪健康状态。

这样的能力不仅令人惊叹,也不可避免地引发了一系列道德和安全上疑虑。

我们正见证一个人工智能可以解读甚至操纵人类情绪的新时代。但是如此深入地介入人类的情感生活,而对应的监管的规定和限制却是空白,AI被赋予的这项能力能力难道不是打开的潘多拉的盒子,将会释放一系列预料之外的后果吗?

更令人不安的是,OpenAI最近悄然撤销了限制将ChatGPT用于“军事和战争”应用的禁令,这一决策无疑为AI技术的军事利用打开了大门。

虽然目前的AI系统还不能直接控制执行致命任务的武器系统,如无人机或导弹发射装置,但它们可以在战争中扮演关键的辅助角色。

例如,AI可以用于优化战术决策,分析情报数据,协调物资和兵力的调配,甚至模拟敌对力量的行动以预测其战术。此外,AI技术也能够加速军事通信和文书处理,提高军事行动的效率和响应速度。

然后随着技术的进步,未来AI可能被整合进更直接的战斗系统中。例如,通过AI增强的目标识别系统可能会被用来自动化攻击决策过程,从而降低人类决策者的直接参与。

奶茶也很担忧,AI真的有权利参与战争吗?要知道,战争和杀戮是紧紧相连的。

当我们讨论AI参与战争的问题时,不仅需要探讨人类决策者如何、在何种范围内使用这些技术。而且还要探讨AI“拥有权利”参与战争吗,我们人类的世界要赋予AI这个权利吗?

AI本身作为工具,没有权利或意志,它的行动完全受制于人类的设计和指令。但是AI决策的责任归属问题非常复杂,如果发生错误,确定责任变得难以追踪。

其次,AI有没有权利作出致命的决策呢?AI可能难以准确执行战争法和国际人道法中的伦理限制,如区分平民和战斗人员,这可能导致不必要的伤害或损失。

小结

再结合我们开头提到的AI可以替代人类的工作这个话题,AI在模仿和执行人类任务方面的边界究竟在哪里?AI真的能够慢慢替代人类吗?

这是一个值得我们深思的问题。随着技术的迅猛发展,AI正越来越多地渗透到各个行业,甚至开始胜任一些原本需要人类独特技能和判断力的工作。那么,AI能够做到哪些,无法做到哪些,它的能力极限是什么?这些问题不只是技术上的挑战,更涉及伦理、法律和社会经济等多个层面。

这是一个需要我们认真考虑和广泛讨论的问题。大家对此怎么看?欢迎一起来探讨,分享你的见解和看法。

微信扫码关注该文公众号作者

来源:夕小瑶科技说

相关新闻

今日Arxiv最热NLP大模型论文:清华大学让大语言模型自动并行自回归解码,速度提升高达4倍!FuseLLM:大语言模型的知识融合!大语言模型对齐的四种方法!爆款饮品冻着吃,喜茶我求你转行卖冰棒!快来接受夏日的甜蜜暴击!文末送书!大语言模型应用指南:以ChatGPT为起点,从入门到精通的实践教程[快薅] 福利升级预警!这家银行要用总价值$2100的大礼包告诉你:夏天就是要尽兴!微软秘密开发首个千亿大模型,竟由OpenAI对手操刀!网友:你不要奥特曼了?LLM性能最高60%提升!谷歌ICLR 2024力作:让大语言模型学会「图的语言」今日arXiv最热NLP大模型论文:大模型RAG新宠!浙江大学发布自反馈检索增强方法小模型狂飙!6家巨头争相发布小模型,Andrej Karpathy:大语言模型的尺寸竞争正在倒退...ICML 2024爆火演讲!Meta等揭秘大模型内心世界:不同于人类的2级推理ICML 2024演讲爆火!Meta朱泽园揭秘大模型内心世界:不同于人类的2级推理核心代码仅三行!即插即用的视觉语言连接器,一键提升多模态大模型“人有三相,不富也旺”:自带这种长相的人,一眼显贵!快看你身上有吗?警惕AI大模型的“共情鸿沟”!剑桥团队呼吁:我们需要“儿童安全人工智能”框架阿里音频生成大模型一次发俩还开源!50种语言快速理解+5种语言语音生成,带情感的那种万字干货!手把手教你如何训练超大规模集群下的大语言模型全英第一的UCL脑科学学院:诺奖大佬、顶尖设备!想拿offer,你需要提前准备什么?末班车!大数据推给正在给娃找夏令营的你:大型暑期续命现场今日arXiv最热大模型论文:图灵测试中,GPT-4仍不及人类!韩观众自曝大热宫廷剧乱抄中国古装和文化?造型师竟在某书收藏秦唐服饰帖,韩网友:丢人!韩奸!今日Arxiv最热NLP大模型论文:MIT推出新方法,大幅提升LLMs的连贯性、准确性和可更新性![热议]“特鲁多正搬石头砸我们的脚”!专家警告:人才流失,生产力大受打击!中产家庭广受影响文末送书!解构大语言模型:从线性回归到通用人工智能
logo
联系我们隐私协议©2024 bendi.news
Bendi新闻
Bendi.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Bendi.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。