AI全球前沿追踪(2024.05.20 - 06.26)

   日期:2024-12-26    作者:8tgfl 移动:http://g8akg8.riyuangf.com/mobile/quote/8715.html


AI全球前沿追踪(2024.05.20 - 06.26)

时间:2024年5月20日-6月26日

本期信息整理:徐客祥 陈睿敏



政策发展



美国限制对华半导体、人工智能和量子计算的投资

2024.6.21

6月,美国财政部发布的草案名为“拟议规则制定通知”(NPRM),旨在限制美国实体在半导体和微电子、量子信息技术、人工智能三个高科技领域对华投资,并列出了详细的规定。这份更为详细的提案表明,华盛顿正在越来越密切地关注人工智能。在周五与记者的通话中,美国财政部的一位高级官员表示,拜登政府希望阻止中国开发一些人工智能的应用,这些应用除其他外,可用于战斗中的武器瞄准或大规模监控,如位置跟踪。


中国商务部于6月24日就美国财政部于6月21日发布的对华投资限制拟议规则做出回应。中国商务部发言人说,“美方反复强调无意对华‘脱钩’,无意阻挠中国经济发展,但却执意发布拟议规则,限制美方企业对华投资,打压中国产业正常发展。”


信息来源:


新加坡政府发布生成式人工智能治理框架模型

2024.5.30

5月30日,新加坡政府发布了生成式人工智能治理框架(GenAI Framework),该框架结构基于早期的人工智能治理模型,并且关注生成式人工智能的科技进步与新兴原则。生成式人工智能治理框架建立在新加坡信息通信媒体发展局(“IMDA”),Aicadium公司和AI Verify基金会联合发布的关于生成式人工智能讨论文件的基础上,主要关注生成式人工智能的9个维度,分别为:


问责制度:为人工智能系统开发生命周期中的参与者建立正确的激励机制,对最终用户负责;数据:确保数据质量并以务实的方式处理可能存在争议的训练数据;可信的开发与部署:在发展,评估和共享阶段确保安全和透明度;事件报告:实施事件管理系统,以便及时通知、补救以及未来的持续改进;测试与保证:通过第三方测试提供外部验证,并制定通用的人工智能测试标准;安全:解决由生成式人工智能模型产生的新威胁载体;内容来源:采取水印等措施以确保透明度并验证数字内容的来源;安全与协调研发:通过全球人工智能安全研究所之间的合作以改善模型与人类价值观的协调;人工智能公益:通过实现获取途径的民主化、改善公共部门的使用情况、提高工人的技能以及可持续地开发人工智能系统,从而引导人工智能走向为公共利益服务。


信息来源:

https://aiverifyfoundation.sg/wp-content/uploads/2024/05/Model-AI-Governance-Framework-for-Generative-AI-May-2024-1-1.pdf


人工智能法案获欧盟理事会批准

2024.5.21

5月21日,欧盟理事会正式批准《人工智能法案》。该法案已于今年3月份在欧洲议会通过,这意味着世界上第一个系统化的人工智能监管法案正式落地。此次欧盟的人工智能法案以风险防控为核心概念,将AI技术的潜在风险分为三个等级,分别为“不可接受”(unacceptable risk),“高风险”(high-risk applications)和“有限风险”(limited risk)。该法律还禁止使用通过生物识别数据区分人类种族、宗教或性取向等特性的人工智能系统。


据悉,为了确保人工智能法案的实施和执行,欧盟计划设定一些新的管理机构,分别为在委员会内设立的人工智能办公室,独立专家组成的科学小组,包含成员国代表的监督委员会(AI Board)以及一个顾问论坛。比利时数字化部长米歇尔在法案被批准后表示,人工智能法案的通过是欧盟的一个重要里程碑。


信息来源:

https://www.europarl.europa.eu/topics/en/article/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence


行业动向



OpenAI将终止对中国提供服务

2024.6.25

6 月 25 日,OpenAI 向中国 API 用户发送一封邮件,表示将采取措施,以阻止来自不再支持的国家和地区的 API 流量。邮件中提到,中国用户的 API 流量来自OpenAI 目前不支持的地区。从 7 月 9 日开始,OpenAI将采取另外的措施,以阻止来自他们不再支持的国家和地区名单上的地区的 API 流量。若要继续使用 OpenAI 的服务,用户需在得到支持的地区访问服务。


目前OpenAI的API向161个国家和地区开放,但中国地区并未被包含在名单里。另一方面,今年6月美国财政部发布一份规则草案,要求对美国在半导体、量子计算和人工智能领域的某些投资进行监管,限制其在上述领域的对华投资。


信息来源:

https://www.bloomberg.com/news/articles/2024-06-26/openai-s-china-block-to-reshape-ai-scene-as-big-players-like-alibaba-pounce?embedded-checkout=true



前美国网络司令部司令和国家安全局局长保罗·中曾根(Paul Nakasone)加入OpenAI董事会

2024.6.17

6月13日,OpenAI任命了前美国网络司令部司令和国家安全局(NSA)局长保罗·中曾根(Paul Nakasone)加入其董事会。此前,由于几位领导人的离职,OpenAI的原安全团队已解散,新成立的安全小组将取而代之。在加入OpenAI后,中曾根仍将继续负责处理与人工智能领域相关的安全问题。


6月17日,因棱镜门事件而被广泛关注的爱德华·斯诺登(Edward Snowden)再次发文称,“永远不要信任OpenAI或其产品,任命前国家安全局局长为董事会成员的原因只有一个。这是对地球上所有人权利的背叛。”


信息来源:

https://engineering.vanderbilt.edu/2024/06/13/retired-u-s-army-general-paul-nakasone-appointed-to-openai-board-of-directors/

https://www.themirror.com/news/us-news/edward-snowden-warns-do-not-539753


英伟达市值正式超越苹果

2024.6.5

在新一轮人工智能浪潮中,科技公司英伟达(Nvidia)通过强大的技术积累成为了世界上最大的人工智能算力芯片制造商。除了在硬件方面得天独厚的优势,英伟达在系统,软件方面构筑起的立体布局,为其公司在2022年后创造了疯狂的市值增长,在2024年6月敲开3万亿大关并一举超越苹果成为世界市值第二大的公司。


以英伟达创始人黄仁勋的说法,人工智能将会引领第四次工业革命,而他的英伟达将成为这个时代浪潮中的领军者。


信息来源:

https://www.forbes.com/sites/antoniopequenoiv/2024/06/18/nvidia-now-worlds-most-valuable-company-topping-microsoft-and-apple/#:~:text=Topline,months%20of%20strong%20stock%20gains.


斯坦福人工智能团队抄袭清华大模型,美国开发者公开道歉

2024.6.4

在5月29日,斯坦福大学的一个研究团队发布了名为Llama3-V的大模型,声称仅需500美元的预训练成本,就能达到与GPT-4V大模型接近的效果。这一消息在人工智能学界和相关社交媒体平台引起了广泛关注和讨论。然而,业内人士及网友很快发现,该大模型涉嫌抄袭此前清华大学与面壁智能合作发布的大模型MiniCPM-Llama3-V2.5,两者的代码结构非常相似,只有变量名有所修改。


同时,网友发现斯坦福的全新大模型可以和清华的大模型MiniCPM-Llama3-V2.5一样识别一种名为“清华简”的战国时期古文字,并且两种大模型在识别“清华简”时出现的错误都完全一致。由于识别“清华简”是清华大学等机构独有的大模型训练方法,在斯坦福团队的“清华简”识别功能出现之后,网友对于抄袭一事的质疑声甚嚣尘上。


在种种质疑面前,斯坦福AI团队选择承认事实并道歉,删除自己的代码和发布公告。同时,斯坦福人工智能实验室主任克里斯托弗·大卫·曼宁(Christopher David Manning)也通过社交媒体谴责此次抄袭行为,并对清华与面壁智能发布的大模型表示了自己的肯定。


信息来源:

https://english.news.cn/20240605/3583ee9143d844758ba3a7ef26170e6d/c.html



智库动向



兰德公司发布关于保护人工智能模型权重的报告

2024.5.30

随着“前沿人工智能(AI)模型”(即在开发时与最先进模型的能力相当或超过后者的模型)的能力越来越强,防止前沿模型被窃取和滥用变得更加重要。兰德公司的报告重点有以下四方面的工作:


1)识别了大约38种独特的攻击途径;2)对潜在攻击者的能力进行了深入分析;3)评估了不同类别的攻击者执行每种攻击途径的可行性;4)提出并定义了五个安全等级,并为达到这些安全等级提供了初步的基准安全系统。


该报告还提出了8条相关建议,包括减少授权使用权重的人员数量、以综合威胁模型为基础制定全面的安全计划、实施内部威胁识别计划等。


信息来源:

https://www.rand.org/pubs/research_reports/RRA2849-1.html


麦肯锡官网发布最新洞见《高效率、低能耗、零缺陷:人工智能让制造创新“一键直达”》

2024.5.17

从灯塔工厂AI用例的提升,到生产效率的提高,都体现出人工智能对制造业的影响。目前,人工智能相关技术已展现出超过50个潜力巨大的应用场景,覆盖了“设计、采购、计划、制造、交付、服务”这六大主要领域,以及“数据与技术部署、人才与组织赋能”两大能力领域。而这一变革主要由内容生成、洞察提取和用户交互等新能力所推动。而在“灯塔工厂”(成功将技术从试点阶段推向大规模整合阶段的工厂)中,作者总结出了关于人工智能和生成式人工智能部署的五大洞察,分别为:1)人工智能用例已遍布整个运营价值链;2)资产化是实现人工智能快速大规模部署的有效方式;3)人工智能指挥中心正推动自动化达到新层次和系统级别;4)生成式人工智能正将人工智能的影响扩展到车间之外;5)生成式人工智能的发展速度远超预期。因此,通过灯塔工厂可以看到人工智能在制造业中的发展潜力,其它制造商应快速跟进,充分发挥人工智能的优势。


信息来源:

https://www.mckinsey.com.cn/%e9%ab%98%e6%95%88%e7%8e%87%e3%80%81%e4%bd%8e%e8%83%bd%e8%80%97%e3%80%81%e9%9b%b6%e7%bc%ba%e9%99%b7%ef%bc%9aai%e8%ae%a9%e5%88%b6%e9%80%a0%e5%88%9b%e6%96%b0%e4%b8%80%e9%94%ae%e7%9b%b4%e8%be%be/



大咖言论



计算机科学家杨立昆(Yann LeCun):学生与学者应避免过于专注LLMs的研究

2024.6.23

6月23日,纽约大学教授、Meta 首席前沿人工智能模型科学家杨立昆(Yann LeCun)发表了对大语言模型(LLM)的看法。他建议学生和学术研究人员不要将大型语言模型作为工具去探索通往拟人级人工智能的路。杨立昆认为,已经有足够大量的资源和人员投入到大语言模型的开发中,如果未来的从业者想要做出真正的创新,继续深耕大语言模型领域不会是一个明智的选择。


信息来源:https://x.com/ylecun



| 原创声明 |


统筹|游传满 冯箫凝

策划|袁浩延

校对|周宇笛


特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。


举报收藏 0评论 0
0相关评论
相关最新动态
推荐最新动态
点击排行
{
网站首页  |  关于我们  |  联系方式  |  使用协议  |  隐私政策  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号