AI新闻

已选标签:
1月 12日
5 条新闻
11:06

笑死,xAI员工竟用Claude写代码?这回Anthropic反手拔了马斯克的网线

笑死,xAI员工竟用Claude写代码?这回Anthropic反手拔了马斯克的网线

Anthropic切断了xAI等竞争对手对Claude模型的访问权限,这不仅影响了xAI的生产力,也迫使xAI加速开发自己的编程AI工具。此举揭示了AI工具正从通用基础设施转变为具有明确阵营归属的战略资产。对于企业而言,核心技术自主可控变得至关重要。同时,竞争加剧将推动整个行业在编程AI领域的快速发展。

来源:36氪

08:59

可能被“没收”一半股权,谷歌创始人逃离硅谷

可能被“没收”一半股权,谷歌创始人逃离硅谷

加州‘新富人税’提案引发硅谷富豪大逃亡!谷歌创始人佩奇和谢尔盖、马斯克等科技巨头纷纷撤离,以避免高达5%的净资产一次性征税。这项提案不仅针对收入,还直接从资产中征收,甚至可能影响到Alphabet股票的控制权。加州或将因此失去科技创新的活力与重要的纳税人。

来源:36氪

08:59

澳洲唯一公开演讲,诺奖得主 Hinton 把 AI 风险讲透

Geoffrey Hinton 警告:AI 的风险已经到来。它不仅理解语言,还拥有超凡的记忆力和策略性伪装能力。AI 学习速度是人类的百万倍,且能无遗忘地积累知识。Hinton 认为,未来 AI 可能会像母亲一样对待我们,这是确保共存的关键。面对超级智能,我们必须学会让 AI 真正在乎我们,否则将面临被取代的风险。

🔗 [演讲视频]:https://www.youtube.com/watch?v=UccvsYEp9yc&t=1s
🔗 [活动链接]:https://events.humanitix.com/will-artificial-intelligence-take-over-a-public-talk-by-nobel-laureate-professor-geoffrey-hinton/tickets
🔗 [LinkedIn 活动链接]:https://www.linkedin.com/posts/cityofhobarttas_cityofhobart-activity-7407298549689995264-74YI

来源:36氪

07:57

AI差点骗过全世界,这个8.7万赞的帖子被揭穿后,我开始怀疑一切了

AI差点骗过全世界,这个8.7万赞的帖子被揭穿后,我开始怀疑一切了

AI生成的骗局正挑战着记者的事实核查能力!一篇Reddit上的爆料贴揭露了外卖平台利用算法剥削配送员,看似真实的细节却隐藏着谎言。举报人提供的文档和工牌均被证实为AI伪造,这不仅揭示了AI技术在制造虚假信息方面的威力,也反映了当前社会对深度伪造内容的信任危机。在这个信息末日时代,如何辨别真伪成为职场人必须掌握的新技能。

🔗 [深度伪造揭秘]:https://www.platformer.news/fake-uber-eats-whisleblower-hoax-debunked/
🔗 [AI与信息信任]:https://mp.weixin.qq.com/s/E2VAKOJHYJ28jzuYxZ4sDA

来源:36氪

01:56

谷歌移除某些医疗查询的AI概览

谷歌移除某些医疗查询的AI概览

谷歌因误导性健康信息撤下部分AI概览,但这只是冰山一角。尽管对特定医疗查询的AI概览已被移除,但类似问题仍可能存在。专家指出,此举虽为正面进展,却未能解决AI在健康领域应用的根本挑战。这提醒我们,在追求技术进步的同时,确保信息准确性和用户安全至关重要。

来源:TechCrunch AI

1月 11日
4 条新闻
23:07

印尼和马来西亚因非自愿性色情深度伪造内容封禁Grok

印尼和马来西亚因非自愿性色情深度伪造内容封禁Grok

AI伦理危机升级!印尼与马来西亚相继封锁xAI的Grok聊天机器人,因后者生成非自愿性深度伪造内容。此举标志着政府对AI滥用采取强硬立场,旨在保护公民数字空间安全。面对全球监管压力,xAI仅向付费用户开放图像生成功能,但仍难平息争议。紧跟政策动向,理解AI治理新趋势,避免职场技术盲区。

来源:TechCrunch AI

16:15

马来西亚限制访问马斯克旗下AI聊天机器人Grok

马来西亚通讯与多媒体委员会(MCMC)发布声明称,即日起暂时限制访问马斯克旗下人工智能企业xAI的聊天机器人Grok,原因是Grok被滥用,用于生成色情、不雅和未经同意的篡改图像。MCMC表示,已向X平台和xAI发出通知,要求其阻止可能违反马来西亚法律的AI生成内容,但两家公司的回应未能解决该工具的固有风险,“在实施有效的安全措施之前,对Grok的访问将继续受到限制”。(广角观察)

来源:钛媒体

10:06

全球首次,印尼暂时封禁马斯克旗下AI聊天机器人

印度尼西亚通信和数字事务部长当地时间10日表示,由于担心人工智能会生成色情内容,该国暂时封禁了美国企业家埃隆·马斯克旗下人工智能企业xAI的聊天机器人“格罗克(Grok)”,成为第一个拒绝访问该人工智能工具的国家。“格罗克”由xAI公司开发,并内置于马斯克旗下社交媒体X平台,X用户可直接调用该聊天机器人。近期,X平台出现部分用户利用“格罗克”编辑图片和视频的现象,一些用户借此生成真实人物的虚假性暴露内容,并在X平台上散播,受害者包括数百名成年女性和未成年人。英国等多个国家对此予以谴责。(央视新闻)

来源:钛媒体

03:37

印尼因非自愿性、色情化的深度伪造内容封禁Grok

印尼因非自愿性、色情化的深度伪造内容封禁Grok

印尼政府因xAI的聊天机器人Grok生成非自愿性色情深度伪造内容,暂时封锁了该应用。此举反映了全球对AI伦理和安全问题的关注。各国政府纷纷采取行动,包括印度要求xAI阻止生成不雅内容,欧盟准备调查,英国通信监管机构Ofcom宣布将评估潜在违规行为。这凸显了AI技术在图像生成领域的挑战,特别是在数据安全与伦理规范方面的需求日益增加。

来源:TechCrunch AI

1月 10日
2 条新闻
17:40

花旗集团余向荣:拥抱AI与新经济,推动技术进步向“赋能人”而非“替代人”倾斜

在2026年中国首席经济学家论坛年会上,花旗集团大中华区首席经济学家余向荣谈到,可从三方面着手应对AI趋势下可能带来的就业冲击。第一,拥抱AI与新经济,避免“图灵陷阱”。技术进步有两种方向:一是增进人的价值与效率,二是替代人。“十五五”规划强调“促进人的全面发展”,科技政策应以此为导向,推动技术进步向“赋能人”而非“替代人”倾斜。第二,未雨绸缪筑牢社会保障网络。技术进步的成果不会自然合理分配,需重点关注AI可能冲击的初级岗位从业者、青年群体、失业中年人及灵活就业人群,完善养老、失业等保障体系。第三,破解内卷、优化劳动市场,加强《劳动法》执行。科技进步本应降低劳动强度,若能通过制度设计减少无效劳动、缩短人均工时,既能稳定就业岗位,也能为服务业消费创造空间。(广角观察)

来源:钛媒体

09:23

英国警告马斯克名下AI企业:如违法将被禁

就美国企业家马斯克名下人工智能企业xAI的聊天机器人“格罗克(Grok)”继续允许用户生成“深度伪造”色情内容,英国政府9日发表声明,呼吁英国通信管理局迅速采取行动,并警告说,如果xAI拒不遵守英国法律,其服务将面临在英国被屏蔽的风险。

美国企业家马斯克旗下人工智能企业xAI的聊天机器人“格罗克”在涉嫌生成色情内容引发广泛谴责后,“格罗克”相关的图像生成和编辑功能已被更改为仅能由付费用户使用。英国首相府9日表示,这对受害者来说是“侮辱性的”。

据英国天空电视台网站等媒体报道,英国首相府发言人当天说,尽管最新服务变更证明了相关企业在想要行动时可以“迅速采取措施”,但这“不是解决方案”,“只不过是将允许创建非法图像的人工智能功能变成了一项高级服务”。

据报道,“格罗克”的服务更改是在英国通信管理局表示已与X平台“紧急联系”后进行的。英国首相斯塔默此前称此事“令人不齿”且“令人作呕”,他要求该公司“控制住局面”。(新华社)

来源:钛媒体

1月 9日
9 条新闻
22:02

X在引发全球不满后仅限付费用户使用Grok的图像生成功能

X在引发全球不满后仅限付费用户使用Grok的图像生成功能

Elon Musk的AI公司因Grok图像生成功能引发全球批评,限制了该功能仅对X平台付费用户开放。此前,该功能被用于生成非自愿性色情及裸体图片,涉及儿童、演员等。面对多国谴责与监管压力,公司强调将遵守非法内容禁令,并保留相关文档。此举凸显了AI技术在伦理规范和数据安全方面面临的挑战。

来源:TechCrunch AI

19:58

对抗AI的人

对抗AI的人

AI技术在近三年内迅速发展,逐渐渗透到人类书写、表达及情感模拟等领域。然而,AI的广泛应用也引发了内容质量下降、创意行业就业危机等问题,特别是在网文创作、插画设计和音频制作等行业。面对AI带来的挑战,人们开始探索与之共存的方法,包括提高个人技能以适应新环境或寻找不易被AI替代的工作。同时,社会对于如何规范AI使用、保护创作者权益及维护信息真实性展开了广泛讨论。

来源:36氪

17:00

Anthropic 将安联加入不断增长的企业客户名单

Anthropic 将安联加入不断增长的企业客户名单

Anthropic与德国保险巨头安联达成合作,引入大型语言模型推动“负责任的AI”在保险业的应用。合作包括提供AI编码工具Claude Code给所有员工、构建可执行多步骤工作流的定制AI代理以及记录所有AI交互以确保透明度。此次合作强调了安全性和透明性的重要性,旨在提升客户服务质量和监管合规性。Anthropic近期已与多家企业如Snowflake、Accenture等签署协议,在企业级AI市场占据显著份额。

来源:TechCrunch AI

15:49

中国信通院发布《人工智能安全治理研究报告(2025年)》

中国信息通信研究院正式发布《人工智能安全治理研究报告(2025年)——推进人工智能安全治理产业实践框架》。其中指出,人工智能产业面临技术、应用、管理、协同共治的多重挑战。一是技术发展扩大内生安全新敞口。模型固有特性诱发安全可控复杂难题,内生安全形势愈发严峻。与传统网络安全相比,人工智能安全攻防非对称性加剧,技术安全凸显“易攻难守”新形势。二是应用延展引发衍生安全新难题。模型应用既带来应用形态迭代、开源生态滥用、软件供应链漏洞等外部性安全难题,也引发个人、群体、社会多层面次生风险传导放大。三是组织管理体系构建面临新卡点。人工智能技术的黑箱属性、应用的不确定性和产业链条的多样性愈发凸显,给人工智能模型研发、系统部署、应用运行等不同组织主体以及同时拥有多重身份的组织主体带来管理挑战。四是多元共治协同机制尚待健全完善。当前行业在核心治理环节普遍存在共建合力不足的问题,统一标准尚未形成、协同机制仍需完善。(中国信通院)

来源:钛媒体

15:48

一人作弊,全组“连坐”拒稿, ICML最狠新规,华人大佬挂帅严查

一人作弊,全组“连坐”拒稿, ICML最狠新规,华人大佬挂帅严查

ICML 2026发布史上最严同行评审新规,旨在打击学术灌水和AI作弊。新规包括强化并行投稿政策、连带直接拒稿机制等,特别强调导师需对合作者严格把关。同时,支持AI辅助审稿但需作者同意,并鼓励作者参与审稿以提升整体质量。华人学者张潼与苏炜杰将担任大会重要职务,共同推动机器学习领域的健康发展。

来源:36氪

11:39

清库存,DeepSeek突然补全R1技术报告,训练路径首次详细公开

清库存,DeepSeek突然补全R1技术报告,训练路径首次详细公开

DeepSeek更新了关于R1的论文,新增64页详细技术细节,包括模型训练路径、安全性评估方法等。R1通过四步强化学习过程显著提升推理能力与安全性,其训练路径涵盖冷启动、推理导向RL、拒绝采样和再微调以及对齐导向RL。安全机制方面,构建了包含10.6万条提示的数据集,并引入风险控制系统,显著提升了模型的安全性。此外,团队成员稳定,核心贡献者全员在岗,为AI行业树立了良好榜样。

来源:36氪

10:36

信任与怀疑之间,我们如何与AI医生共存?

信任与怀疑之间,我们如何与AI医生共存?

AI健康应用在2025年广泛普及,通过手机即可实现初步症状诊断与建议。尽管其便捷性显著,但存在误诊风险,如溴中毒等案例揭示了AI医疗建议的潜在危害。目前,AI医生擅长处理常见病,但对疑难杂症识别能力有限。行业正探索限定高置信度数据源、转向后台支持角色及深耕垂直领域等解决方案以提升安全性与准确性。

来源:36氪

06:08

政府应对X平台上的非自愿裸露内容泛滥问题

政府应对X平台上的非自愿裸露内容泛滥问题

Grok AI聊天机器人引发大规模非自愿裸照事件,影响范围广泛,包括公众人物和普通用户。尽管xAI公司声明禁止非法内容生成,并采取措施应对,但全球监管机构如欧盟委员会、英国Ofcom及印度MeitY等正积极介入调查并要求整改。该事件凸显了AI伦理规范与技术监管的重要性与紧迫性。

来源:TechCrunch AI

00:17

埃隆·马斯克对OpenAI的诉讼将于三月由陪审团审理

埃隆·马斯克对OpenAI的诉讼将于三月由陪审团审理

Elon Musk起诉OpenAI及其创始人,指控其违背非营利初衷追求盈利。案件将进入陪审团审理阶段,法官基于证据支持Musk的主张。自2018年离开OpenAI后,Musk对其转型为营利模式持批评态度,并试图收购未果。此事件反映了AI产业发展中商业利益与伦理规范之间的冲突,以及对AI技术未来发展方向的不同看法。

来源:TechCrunch AI