
MIT博士肖光烜加盟Thinking Machines,专注于大模型预训练。其研究聚焦于深度学习的高效算法与系统,特别是在大规模基础模型领域。他在Meta和英伟达实习期间,提出了流式语言模型的高效注意力机制及DuoAttention等创新技术,显著提升了长上下文处理能力和推理速度。肖光烜的博士论文解决了显存爆炸、推理慢、长上下文OOM等关键问题,为下一代计算高效的AGI奠定基础。
主题测试文章,只做测试使用。发布者:jovi,转转请注明出处:https://uxwork.cn/archives/ai-news/mit%e5%a4%a9%e6%89%8d%e5%8d%9a%e5%a3%ab%e5%88%9a%e6%af%95%e4%b8%9a%ef%bc%8c%e5%b0%b1%e8%a2%ab%e5%89%8dopenai-cto%e6%8a%a2%e8%b5%b0%ef%bc%8c%e5%b9%b4%e8%96%aa%e6%88%96300%e4%b8%87%e8%b5%b7%e6%ad%a5