日本在全球 AI 大模型的参与度

AI知识 2024-09-16

日本在全球 AI 大模型的参与度

日本在全球 AI 大模型领域积极参与竞争。日本联合研究团队发布了名为 Fugaku-LLM 的大型语言模型,这标志着日本在人工智能领域的重大突破。Fugaku-LLM 大模型是首个在世界顶级超算之一的 “富岳” 上完成训练的大型语言模型,拥有超过 15 万个高性能核心,以实现前所未有的计算效率与能耗比。该模型参数规模达到 130 亿个参数,在多项任务中如文本摘要、问答系统、机器翻译等取得优异成绩。
日本正以举国之力押注主权 AI。2023 年 7 月成立的 SakanaAI 在近半年融资 2 轮,6 月 14 日宣布完成由 Khosla Ventures、Lux Capital、NEA 联合领投的 1.27 亿美元融资,估值约为 1800 亿日元,成为日本增长速度最快的 AI 独角兽。
日本还将开发国产生成式 AI 的大语言模型,富士通、理研等参与。东京工业大学和日本东北大学等团队发布消息称,将开发具备更强日语能力的 “大语言模型”,利用理化学研究所的超级计算机 “富岳” 学习大量数据。


此外,成立不到一年的日本生成式 AI 初创公司 SakanaAI 估值超 10 亿美元,推出了 3 个日语专用的生成式 AI,包括视觉语言模型 EvoVLM-JP、用日语解决数学问题的 EvoLLM-JP 以及生成并理解日语图像和文本的模型 EvoSDXL-JP。
虽然日本在 AI 大模型领域积极行动,但在全球范围内,与中美等国家相比,其竞争力仍有待提升。在一些报告中,韩国初创企业获得投资额仅为美国的 2%,且无一家 AI 独角兽公司诞生,而欧洲在 AI 大模型这一细分领域也未展现出应有的竞争力。至于日本,错失互联网、云计算浪潮后,在 AI 大模型的核心要素 —— 数据、算力、算法方面均显不足。日本即时通讯市场被韩国 LINE 占领,云计算市场则被美国三巨头垄断,本土企业几乎缺席。同时日本半导体产业的衰退导致 AI 芯片领域的优势不再,加之日语语料匮乏。

日本 Fugaku-LLM 大模型的优势


Fugaku-LLM 大模型是在世界顶级超算之一的 “富岳” 上完成训练的大型语言模型。“富岳” 超算以其强大的 Arm 架构处理器闻名,拥有超过 15 万个高性能核心,这种设计旨在实现前所未有的计算效率与能耗比。Fugaku-LLM 的参数规模达到了 130 亿个参数,虽然与 GPT-4 的 1750 亿个参数相比规模较小,但它在训练过程中约 60% 的训练数据是日语数据,40% 的数据是英语、数学和代码数据,使其在日语处理能力方面表现卓越。在日语 MT-Bench 模型基准测试上的平均得分为 5.5,排在基于日本语料资源的开放模型首位,并在人文社科类别中得到了 9.18 的高分。该模型的研究团队宣称 Fugaku-LLM 模型可在交流中自然使用日语敬语等特殊表达。目前 Fugaku-LLM 模型已在 GitHub 和 Hugging Face 平台公开,外部研究人员和工程师可在遵守许可协议的前提下将该模型用于学术和商业目的。

日本 SakanaAI 的发展


SakanaAI 由两名前谷歌工程师于去年创立,即将获得一笔新的重大投资,本月底之前筹集约 200 亿日元资金,这将使该公司估值达到 1800 亿日元,成立不到一年便成为日本增长速度最快的 AI 独角兽。SakanaAI 注意到要让 AI 生成物的文化属性与艺术质感贴近日本文化和用户价值观,其 logo 是鱼形的,官网网站里随处可见各种生成式 AI 绘制的鱼。SakanaAI 被称作 “东京 AI 梦之队”,致力于开发日语专用生成式 AI,将语言、数学、视觉融合,通过 “黑魔法” 模型合并技术,让日语理解更加出色。SakanaAI 的成功融资,也预示着一个低成本、高效率 AI 开发时代的到来,其创新为 AI 领域的可持续发展提供了新思路。

日本开发国产生成式 AI 大语言模型情况


日本东京工业大学和日本东北大学等团队发布消息称,将开发作为生成式人工智能基础技术、具备更强日语能力的 “大语言模型”。利用理化学研究所的超级计算机 “富岳”,学习大量数据,并在本年度内依次公开,使国内企业、研究人员等可为自己公司的服务或研究而自行改良。该团队将切实检查互联网上的文章数据,提高日语占比并让 AI 学习,制作独有的 “大语言模型”。不仅是日语,计划还应对开发其他语言和项目的代码。富士通和理研也加入团队。此外,日本政府还将投资 6.8 万亿日元在北海道建造一台新的超级计算机,最早将于明年开始服务,这台超级计算机将专门从事 LLM 培训。

日本 AI 大模型竞争力不足的原因


日本在生成人工智能领域的落后地位很大程度上源于其在深度学习和更广泛的软件开发方面的相对缺陷。深度学习需要一个 “强大的软件工程师社区” 来开发必要的基础设施和应用程序,然而,日本将面临软件工程师的赤字,且在 IMD 世界数字竞争力排名中,该国目前在 28 个国家中排名第 63 位。日本也面临着硬件挑战,因为 LLM 需要使用 AI 超级计算机进行培训,例如 IBM 的 Vela 和 Microsoft 的 Azure 托管系统,但日本没有一家私营公司拥有自己的 “世界级机器”。此外,日本现在最大的问题是,从学界主流到政界主流依然重硬件而轻软件,软件被视为硬件的补充,不算是创新的努力方向,这种思维弥漫在日本 “产官学” 的主流,更讽刺的是,老龄化少子化进一步固化了这种思维,重硬轻软的人依旧控制着 “产官学” 的话语权和预算权。

日本 AI 大模型与中美对比


欧洲、加拿大、日本等国也在 AI 研究领域有较强的实力,但与中美相比仍存在一定差距。特别是人才流动方面,许多优秀的 AI 研究人员都被中美的科研机构和企业所吸引。从参数规模来看,日本的 Fugaku-LLM 大模型参数规模为 130 亿个参数,而 GPT-4 的参数规模则达到了惊人的 1750 亿个参数,这一巨大的差异意味着 GPT-4 在模型的复杂性和潜在的表达能力上可能更胜一筹。此外,从性能评测结果来看,GPT-4 系列模型在多个能力上依然处于领先地位。虽然日本在努力发展 AI 大模型,如举全国之力押注主权 AI,巨额押注 “梦之队” SakanaAI,旨在超越中美,但目前来看,仍有较大差距。
日本在全球 AI 大模型的参与度不可忽视。一方面,日本积极开发国产生成式 AI 大语言模型,如 Fugaku-LLM 和 SakanaAI 等,展现出在特定领域的优势和创新能力。Fugaku-LLM 凭借在 “富岳” 超算上的训练,在日语处理能力方面表现出色,为日本的研究和商业应用提供了新的工具。SakanaAI 则以其独特的技术和发展模式,成为日本 AI 领域的一颗新星,为日语专用生成式 AI 带来了新的希望。另一方面,日本也面临着诸多挑战,在与中美的对比中,竞争力不足的原因较为明显。软件工程师的短缺、重硬件轻软件的思维以及硬件方面的挑战,都制约了日本 AI 大模型的发展。然而,日本并未放弃,通过举全国之力押注主权 AI,积极投入资源和努力,试图在全球 AI 大模型的竞争中占据一席之地。尽管目前与中美仍有差距,但日本的参与为全球 AI 大模型的发展增添了多样性和活力。
©️版权声明:若无特殊声明,本站所有文章版权均归AI工具集原创和所有,未经许可,任何个人、媒体、网站、团体不得转载、抄袭或以其他方式复制发表本站内容,或在非我站所属的服务器上建立镜像。否则,我站将依法保留追究相关法律责任的权利。

vv相关文章