
7 月 11 日消息,科技媒体 NeoWin 于 7 月 10 日发布博文称,微软推出了 Phi-4-mini-flash-reasoning 小语言模型,旨在显著提升端侧 AI 模型在数学和逻辑推理方面的能力。在当下 AI 技术迅猛发展的时代,边缘设备、移动应用和嵌入式系统等对先进推理功能的需求愈发迫切,而 Phi-4-mini-flash-reasoning 模型的诞生,正好满足了这些资源受限场景的需求。
在架构设计上,Phi-4-mini-flash-reasoning 创新性地引入了 SambaY 架构。其中,名为 Gated Memory Unit(GMU)的组件是一大亮点。该组件能够在模型内部各部分之间高效地共享信息,极大地优化了模型的运行效率。这一特性使得模型在面对超长输入时,也能够迅速生成答案并完成任务,同时还能高效处理大量数据,理解复杂且冗长的文本或对话,为用户带来流畅且智能的交互体验。
性能层面,Phi-4-mini-flash-reasoning 相较于其他 Phi 模型取得了重大突破。其吞吐量最高提升了 10 倍,意味着在相同时间内,该模型可以处理远超以往的请求数量,或生成多达 10 倍的文本内容,大大提高了工作效率。同时,模型延迟降低至其他 Phi 模型的 1/2~1/3.这使得应用响应更加迅速,为实际应用场景带来了质的飞跃,无论是实时交互类应用,还是对响应速度要求严苛的业务,都能从中受益。
目前,Phi-4-mini-flash-reasoning 新型模型已在 Azure AI Foundry、NVIDIA API Catalog 和 Hugging Face 三大平台上线。这为广大开发者和用户提供了便捷的接入途径,助力他们将该模型集成到各类应用中,进一步推动端侧 AI 在不同领域的广泛应用与发展,为智能设备和应用的智能化升级注入强大动力 。
免责声明:本文仅代表作者个人观点,与朝闻天下无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
本网站有部分内容均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责,若因作品内容、知识产权、版权和其他问题,请及时提供相关证明等材料并与我们联系,本网站将在规定时间内给予删除等相关处理.