美国加州州长 Gavin Newsom 在今天凌晨正式否决——SB-1047 法案! SB-1047 是美国加州在今年 2 月 7 日拟定的,全名叫《SB-1047 前沿 AI 大模型安全创新法案》,主要用于增强大模型安全、透明性、使用规范的条例。 但其中有非常多的不合理内容,例如,规定开发、训练成本超过 1 亿美元的大模型,比如 Meta 开源的 Llama-3 系列;谷歌的 Gemma 系列,一旦开源有人使用它做一些非法的事情,那么源开发商也会受到非常严重的处罚。类似不合理的条款还有很多,让人怀疑起草该法案的人员的意图就是想彻底扼杀开源大模型以及大模型出口。所以,像 OpenAI、Meta、谷歌这些科技巨头会成为 SB-1047 的最大受害者。 此外,美国加州这个地区在科技领域非常特殊,是谷歌、Meta、OpenAI、苹果、英特尔、特斯拉总部的所在地,也有斯坦福、加州大学伯克利、加州理工、南加州大学等全球顶尖的计算机名校,算是全球科技创新中心之一。一旦这个法案执行起来,不仅是大公司受到重创,就连一些初创的小企业也会受到巨大影响。 根据美国加州官网公布的否决消息显示,Gavin 州长表示 SB-1047 法案缺乏灵活性,像这种一刀切的方法会抑制在某些领域的创新和 AI 技术的发展,而且法案的规定可能难以实施,因为它们没有为不同类型的 AI 模型、应用提供明确的指导。保护公众免受 AI 技术真正威胁的最佳方法应该是更加细致和有针对性的,而不是一刀切的解决方案。 在这个积极否决的过程中,AI 界泰斗-吴恩达、图灵奖获得者-Yann LeCun、斯坦福教授-李飞飞等发挥了重要作用。尤其是吴恩达,曾多次在公开场合呼吁科技人士抵制该法案。 对于全球开发者来说今天也是个重要的日子,可以继续使用 Meta、谷歌等美国科技大厂开源的大模型啦。(@AIGC 开放者社区)
5、Nature 新研究:大模型越大,越爱胡说八道
Nature 刊文,研究发现大型 AI 模型如 GPT-4 等在升级后产生「脑雾」现象,误答率超 60%。即使精确度提高,AI 在无法回答时仍倾向生成错误答案,用户难以辨别真伪。专家建议 AI 应在人类难以解答问题时回应「不知道」以提高可靠性。(@智东西)
02 有态度的观点
1、Open AI 创始成员:好的科技像一台计算器
Tesla 前 AI 总监、OpenAI 创始团队成员 Andrej Karpathy(安德烈·卡帕斯),最近发文批判当下的科技大多都变得复杂、依赖性过高,且对用户不友好。 好的科技应该像计算器一样,自给自足,操作简单,可长期工作,无需更新,获取用户权限、收集数据等等。 而当下的技术发展,似乎趋向于复杂和用户不友好,这是否公司为了最大化股东价值而过度优化的结果。消费者和开发者应意识到技术发展的趋势,并通过消费选择和开发理念来推动技术回归简单、直接的理想状态。(@ APPSO) 写在最后: 我们欢迎更多的小伙伴参与「RTE 开发者日报」内容的共创,感兴趣的朋友请通过开发者社区或公众号留言联系,记得报暗号「共创」。 对于任何反馈(包括但不限于内容上、形式上)我们不胜感激、并有小惊喜回馈,例如你希望从日报中看到哪些内容;自己推荐的信源、项目、话题、活动等;或者列举几个你喜欢看、平时常看的内容渠道;内容排版或呈现形式上有哪些可以改进的地方等。