「国産AI」はなぜ必要?周回遅れの「日本産AIモデル」の開発が官民一体で進むワケ / 12/25(木) / スマホライフPLUS
2022年OpenAIの「ChatGPT」が登場して以来、世界の状況は大きく変わりました。Googleの「Gemini」、イーロン・マスク氏率いるxAIの「Grok」、さらには中国発の「DeepSeek」など、高性能な大規模言語モデル(LLM)が次々と登場し、激しい開発競争が続いています。
これら海外製のAIは、リリース当初こそ不自然な日本語が目立つこともありましたが、現在では驚くほど流暢な日本語を出力し、ビジネスや生活に浸透しつつあります。
一方、日本では官民が連携し巨額の予算を投じて「国産AI」の開発に躍起になっています。そして2025年12月、ソフトバンクと経済産業省が連携し、官民合わせて総額3兆円規模という、国内では前例のないAI開発計画が発表されました。来春にはソフトバンクなど日本企業十数社が出資して新会社を設立し、世界最大級のAI基盤モデル開発に踏み切る予定です。
もっとも国産AIの議論で見落とされがちなのが、「モデルを作る前に、まず計算資源を押さえられるか」という現実です。たとえばAI開発に不可欠なNVIDIA製の最新GPU「H100」は、1基あたり400万円〜600万円前後(2024〜2025年時点の市場価格)という高価格で取引されており、さらに推論需要の高まりを受けて調達そのものが困難になりつつあります。加えて高性能なAIを作るにはこれらのGPUを数百〜数千基単位で連結させる必要があります。
一方、これまで日本のAI開発に対する支援規模は数百億円〜数千億円単位にとどまり、資本力には2桁以上の差があるのが現実でした。しかし、2025年末に発表された官民プロジェクトにより、状況は大きく変わり始めているのです。
とはいえ、それでも日本のAI開発が周回遅れであるのはまぎれもない事実です。OpenAIやGoogleをはじめとするビッグテックが君臨する「AI開発」に何歩も遅れた段階で、日本が官民一体で参入する意義はどこにあるのでしょうか?
日本のAI開発に「勝ち目」はある?
日本のAI開発が周回遅れかつ困難な道であるとみなされる大きな要因が計算資源の調達です。日本はNVIDIAのような「AIチップ(設計・販売)」そのものにおいて、存在感が薄いことが背景にあります。
もっとも日本は元来、計算資源において弱みがある国ではありません。日本が計算資源確保に苦慮する状況に対して「日本には世界に誇るスパコン『富岳』があるじゃないか」と思う方もいるのではないでしょうか。しかし、AI開発の現場において、富岳には構造上の「相性の悪さ」が存在するのもまた現実です。
富岳はもともと、気象予測や新薬開発といった科学技術シミュレーションを得意とする設計(CPUベース)で作られています。一方、現在のAI開発の主流は、単純な計算を大量に並列処理することに特化したGPUベースです。
■「Fugaku-LLM」について
とはいえCPUベースのスパコンで、LLMの研究・開発が「できない」わけではありません。実際に2024年5月、富士通や理化学研究所などの研究チームは、富岳を使って学習させた大規模言語モデル「Fugaku-LLM」を公開しています。
とはいえOpenAIやGoogleのLLMと比較すると、「Fugaku-LLM」は少なくとも筆者が実際に同LLMを利用する限り、体感として回答の出力に時間がかかり、他の生成AIに比べて、回答の精度にばらつきを感じる場面が多々あります(※注1)。
富岳を用いた研究・開発の成果そのものは偉大なものですが、日本産AIモデルとして、同LLMが将来的に海外産のLLMに比肩するものになるかと言われれば「あまりに長い道のり」と感じるのが本音です。
(※注1:2025年12月時点では、公式サイト上ではメンテナンス状態となっていますが、GitHubでモデルデータが公開されています)
■「フェアユース」不在が招く足かせ
加えてハードウェアだけでなく、法的な環境の違いも日本のAI開発における「見えない足かせ」となっています。特に議論となるのが著作権法です。
アメリカには著作権法における包括的な「フェアユース(Fair Use:公正利用)」という規定が存在します。これは、批評、研究、報道、そして技術開発など、一定の条件を満たせば、著作権者の許諾なく著作物を利用できるという柔軟なルールです。一方、日本には米国のような「フェアユース」に関する包括的な規定はありません(※注2)。著作権法との兼ね合いにおいて「日本は大規模言語モデルの開発に適した国か」という面でも、少なくとも民間レベルでは疑念が残ります。
(※注2:日本では「学習」に関しては世界的に見ても柔軟な法整備(著作権法30条の4)がなされていますが、AIが生成した「出力物」による権利侵害の判断基準や、ビジネス利用における判例がまだ十分に蓄積されていないのが現状です)
「安全保障」とAI
それでも日本が国産AI開発を諦めない、あるいは諦めてはならない最大の理由は「安全保障」です。
ウクライナ情勢などで見られたように、地政学的なリスクが高まった際、海外のテクノロジーへの依存はそのまま国家の弱点となります。
もし日本が独自のAI基盤を持たず、すべての公務、企業活動、教育をChatGPTやGeminiだけに依存したと仮定しましょう。ある日突然、開発元の国の方針が変わり「日本からのアクセスを制限する」、あるいは「利用料を10倍にする」と言われたらどうなるでしょうか。日本のデジタル社会はその瞬間に機能不全に陥ります。
加えて「データ主権」の問題があります。
行政機関の内部文書、企業の未発表製品のデータ、国民のプライバシー情報。これらを海外サーバー上のAIに入力することは、どれだけ「学習には使いません」という規約があったとしても「危険」であることは明らかです。他国の管轄下にあるサーバーにデータを送る以上、他国による情報利用を完全に制御することは難しいでしょう。
「生成AIという画期的な技術の恩恵」と「機密性の高い情報を安全に処理すること」を両立するには、物理的に国内にサーバーがあり、日本の法律が適用される「国産AI」がどうしても必要なのです。
■「守るためのAI」の重要性
つまり「国産AIは本当に必要か?」という問いへの答えは「世界一の性能を目指すためなら不要かもしれないが、国家の自律性を守るためには絶対に必要」というものです。
日本産AIモデルが、ChatGPTやGeminiを超える性能が出せなくても構わないのです。彼らがサービスを停止した時、あるいは彼らには渡せないデータを扱いたい時、代替可能で信頼できる「自国の選択肢」を持っていることそのものが重要です。
現在進められている官民の取り組みは、表面的には「世界との競争」に見えるかもしれません。しかしその本質は、AI時代における日本の「主権」を維持するための、高コストで困難な、しかし避けては通れない安全保障プロジェクトなのです。
スマホライフPLUS
https://news.yahoo.co.jp/articles/db538d2bf407699f9cfafe85ce0043e90da5ce3b?page=1
국산 AI는 왜 필요? 한바퀴 지연된 「일본산 AI 모델」의 개발이 관민 일체로 진행되는 이유 / 12/25(목) / 스마트폰 라이프 PLUS
2022년 오픈AI의 '챗GPT'가 등장한 이후 세계 상황은 크게 달라졌습니다. 구글의 'Gemini', 일론 머스크 씨가 이끄는 xAI의 'Grok', 심지어 중국발 'DeepSeek' 등 고성능 대규모 언어모델(LLM)이 속속 등장하면서 치열한 개발 경쟁이 이어지고 있습니다.
이들 해외산 AI는 출시 초기야말로 부자연스러운 일본어가 눈에 띄기도 했지만, 현재는 놀라울 정도로 유창한 일본어를 출력해, 비즈니스나 생활에 침투하고 있습니다.
한편, 일본에서는 관민이 제휴해 거액의 예산을 들여 「국산 AI」의 개발에 열을 올리고 있습니다. 그리고 2025년 12월, 소프트뱅크와 경제산업성이 제휴해, 관민을 합쳐 총액 3조엔 규모라고 하는, 국내에서는 전례가 없는 AI 개발 계획이 발표되었습니다. 내년 봄에는 소프트뱅크 등 일본 기업 십여 곳이 출자해 새 회사를 설립하고, 세계 최대급의 AI 기반 모델 개발을 단행할 예정입니다.
무엇보다 국산 AI의 논의에서 간과되기 쉬운 것이 '모델을 만들기 전에 먼저 계산 자원을 억누를 수 있는가'라는 현실입니다. 예를 들어 AI 개발에 필수적인 NVIDIA제의 최신 GPU 'H100'은 1기당 400만엔~600만엔 전후(2024~2025년 시점의 시장 가격)라는 높은 가격에 거래되고 있으며, 더욱이 추론 수요가 높아지면서 조달 자체가 어려워지고 있습니다. 더불어 고성능 AI를 만들려면 이들 GPU를 수백~수천기 단위로 연결시켜야 합니다.
반면 그동안 일본의 AI 개발에 대한 지원 규모는 수 백억엔~수 천억엔 단위에 그쳐 자본력에는 두 자릿수 이상 차이가 나는 것이 현실이었습니다. 그러나 2025년 말에 발표된 민관 프로젝트로 상황이 크게 달라지기 시작했습니다.
그렇다고는 해도, 그래도 일본의 AI 개발이 한바퀴 늦은 것은 틀림없는 사실입니다. OpenAI나 Google을 비롯한 빅테크가 군림하는 「AI 개발」에 몇 걸음이나 늦은 단계에서, 일본이 관민 일체로 참가하는 의의는 어디에 있는 것일까요?
◇ 일본 AI 개발에 '승리' 있다?
일본의 AI 개발이 한바퀴 지연되고 곤란한 길이라고 간주되는 큰 요인이 계산 자원의 조달입니다. 일본은 엔비디아와 같은 'AI 칩(설계·판매)' 자체에서 존재감이 희박한 것이 배경입니다.
무엇보다 일본은 원래 계산자원에 있어서 약점이 있는 나라가 아닙니다. 일본이 계산 자원 확보에 고심하는 상황에 대해 '일본에는 세계에 자랑하는 슈퍼컴 '토미타케'가 있지 않을까'라고 생각하는 분도 있지 않을까요? 그러나, AI 개발의 현장에 있어, 토미타케에는 구조상의 「궁합이 나쁜 것」이 존재하는 것 또한 현실입니다.
토미타케는 원래, 기상 예측이나 신약 개발이라고 하는 과학기술 시뮬레이션을 특기로 하는 설계(CPU 베이스)로 만들어져 있습니다. 한편, 현재 AI 개발의 주류는 단순한 계산을 대량으로 병렬 처리하는 데 특화된 GPU 기반입니다.
■ 'Fugaku-LLM'에 대해
그렇다고 해도 CPU 베이스의 스파콘으로, LLM의 연구·개발이 「할 수 없다」는 것은 아닙니다. 실제로 2024년 5월, 후지쯔나 이화학 연구소 등의 연구팀은, 토미타케를 사용해 학습시킨 대규모 언어 모델 「Fugaku-LLM」을 공개하고 있습니다.
그렇다고는 해도 OpenAI나 Google의 LLM과 비교하면, 「Fugaku-LLM」은 적어도 필자가 실제로 동 LLM을 이용하는 한, 체감으로서 회답의 출력에 시간이 걸려, 다른 생성 AI에 비해, 회답의 정밀도에 편차를 느끼는 장면이 많이 있습니다(※주1).
도미타케를 이용한 연구·개발의 성과 그 자체는 위대한 것입니다만, 일본산 AI 모델로서 동 LLM이 장래적으로 해외산의 LLM에 비견되는 것이 되는가 하면 「너무 긴 여정」이라고 느끼는 것이 본심입니다.
(※ 주1 : 2025년 12월 시점에서는 공식 사이트 상에서는 유지보수 상태이지만 GitHub에서 모델 데이터가 공개되어 있습니다)
■ '페어 유스' 부재가 부르는 족쇄
게다가 하드웨어뿐만 아니라 법적인 환경의 차이도 일본 AI 개발의 '보이지 않는 족쇄'가 되고 있습니다. 특히 논란이 되는 것이 저작권법입니다.
미국에는 저작권법에서의 포괄적인 '페어 유스(Fair Use: 공정이용)'라는 규정이 존재합니다. 이는 비평, 연구, 보도, 그리고 기술 개발 등 일정한 조건을 충족하면 저작권자의 허락 없이 저작물을 이용할 수 있다는 유연한 규칙입니다. 한편, 일본에는 미국과 같은 「페어 유스」에 관한 포괄적인 규정은 없습니다(※주2). 저작권법과의 균형에 있어서 '일본은 대규모 언어모델 개발에 적합한 나라인가'라는 면에서도 적어도 민간 차원에서는 의심이 남습니다.
(※주2: 일본에서는 '학습'에 관해서는 세계적으로 보아도 유연한 법 정비(저작권법 30조의 4)가 이루어지고 있습니다만, AI가 생성한 '출력물'에 의한 권리 침해의 판단 기준이나 비즈니스 이용에 있어서의 판례가 아직 충분히 축적되어 있지 않은 것이 현실입니다)
◇ '안전보장'과 AI
그럼에도 일본이 국산 AI 개발을 포기하지 않거나 포기해서는 안 되는 가장 큰 이유는 '안전보장'입니다.
우크라이나 사태 등에서 보였듯이 지정학적인 리스크가 높아졌을 때 해외 기술에 대한 의존은 국가의 약점이 됩니다.
만약 일본이 독자적인 AI 기반을 갖지 않고 모든 공무, 기업 활동, 교육을 ChatGPT나 Gemini에만 의존했다고 가정합시다. 어느 날 갑자기 개발원 국가의 방침이 바뀌어 '일본으로부터의 액세스를 제한한다', 혹은 '이용료를 10배로 한다'고 말하면 어떻게 될까요. 일본의 디지털 사회는 그 순간에 기능 부전에 빠집니다.
더불어 '데이터 주권'의 문제가 있습니다.
행정기관의 내부 문서, 기업의 미발표 제품 데이터, 국민의 사생활 정보. 이들을 해외 서버상의 AI에 입력하는 것은 아무리 '학습에는 사용하지 않습니다'라는 규약이 있다 하더라도 '위험'한 것은 분명합니다. 타국 관할 하에 있는 서버로 데이터를 보내는 이상 타국에 의한 정보 이용을 완전히 제어하기는 어려울 것입니다.
'생성 AI라는 획기적인 기술의 혜택'과 '기밀성이 높은 정보를 안전하게 처리하는 것'을 양립하기 위해서는 물리적으로 국내에 서버가 있고 일본 법률이 적용되는 '국산 AI'가 반드시 필요합니다.
■ '지키기 위한 AI'의 중요성
즉 '국산 AI는 정말 필요한가?'라는 물음에 대한 대답은 '세계 제일의 성능을 목표로 하기 위해서라면 불필요할지도 모르지만, 국가의 자율성을 지키기 위해서는 절대로 필요하다'는 것입니다.
일본산 AI 모델이 Chat GPT나 Gemini를 넘는 성능을 내지 못해도 상관없습니다. 그들이 서비스를 정지했을 때, 혹은 그들에게는 줄 수 없는 데이터를 다루고 싶을 때, 대체 가능하고 신뢰할 수 있는 '자국의 선택지'를 가지고 있는 것 자체가 중요합니다.
현재 진행되고 있는 관민의 대처는 표면적으로는 '세계와의 경쟁'으로 보일지도 모릅니다. 그러나 그 본질은, AI 시대에 있어서의 일본의 「주권」을 유지하기 위한, 고비용으로 곤란한, 그러나 피할 수 없는 안전 보장 프로젝트입니다.
스마트폰 라이프 PLUS
