What is Shisa V2 405B?
オープンソースのバイリンガル大規模言語モデル「Shisa V2」ファミリーに、最新かつ最も強力なモデルとしてShisa V2 405Bが加わったことを発表できることを大変喜ばしく思います。堅牢なLlama 3.1 405B Instructベース上に構築されたShisa V2 405Bは、日本語と英語の両方で卓越したパフォーマンスを発揮するよう特別に設計されており、日本国内および世界的に、質の高い、文化的に配慮され、高い能力を持つAIに対する重要なニーズに応えるものです。このモデルは、日本で訓練されたLLMのパフォーマンスに新たな基準を打ち立てるだけでなく、主要なベンチマークにおいて世界の主要モデルと遜色ない性能を発揮し、多様で高度な言語タスクに対応する強力なツールを提供します。
主要な特徴
Shisa V2 405Bは、特に日本語と英語のアプリケーションにおいて、最先端の言語処理能力を提供するように設計されています。その主な強みは以下の通りです。
🌐 卓越した日本語と英語の性能: 業界標準およびカスタムベンチマーク(Japanese MT-Bench、ELYZA Tasks 100、MixEvalなど)を用いた広範な評価に基づき、Shisa V2 405Bは、日本語においてGPT-4oやDeepSeek-V3といった世界の主要モデルと遜色のないパフォーマンスを発揮し、英語においても高い能力を示しています。これにより、両言語において非常に正確で、ニュアンスに富み、文脈に即した応答が期待できます。
🇯🇵 深い日本語理解: 大幅に洗練された高品質な日本語/英語SFTデータセットを活用することで、Shisa V2 405Bは日本語の文法、言語学、文化的文脈に対し深い理解を示します。標準的なベンチマークでは見過ごされがちな、実世界の日本語のユースケースでモデルが優れた能力を発揮することを保証するため、弊社では特にshisa-jp-ifeval(指示追従)とshisa-jp-rp-bench(ロールプレイング)を含む新しい評価指標を開発しました。
📈 優れたデータ品質に基づく構築: 特に合成データの生成とフィルタリングにおけるデータセット品質の向上に集中的に取り組んだことが、Shisa V2 405Bのパフォーマンスを向上させる上で最も重要な要因となりました。入手可能な最高のコアJA/EN SFTデータセットの一つを使用することで、モデルはよりクリーンで関連性の高いデータから学習し、結果としてより信頼性が高く、高品質な出力がもたらされます。
🌍 CJK多言語サポートの強化: Shisa V2 405Bは、主に日本語と英語に焦点を当てていますが、韓国語(KO)および繁体字中国語(ZH-TW)の追加言語データも組み込んでいます。この明示的な組み込みにより、CJK(中国語、日本語、韓国語)多言語アプリケーションでの能力が向上し、地域的なタスクにおける汎用性が拡大します。
💡 大規模かつ高度なトレーニング: 405BパラメータモデルであるShisa V2は、Shisa V2 70Bの50倍を超える大規模な計算リソースと、高度な全パラメータファインチューニング技術を必要とします。この規模と集中的なトレーニングが、複雑な指示を処理し、長時間の会話で一貫性を維持し、洗練されたテキストを生成する能力に直接貢献しています。
ユースケース
Shisa V2 405Bは、幅広い高度な言語課題に取り組むことを可能にします。
高品質なバイリンガルコンテンツ生成: 日本語と英語の両方で、言語的なニュアンスと文化的な適切さを保ちながら、正確で自然な響きのテキスト、記事、マーケティングコピー、またはクリエイティブなコンテンツを生成します。
高度な日本語/英語会話とロールプレイング: 日本語でのペルソナに基づいたインタラクションや複雑な指示追従を含む、流動的で複数ターンの会話が可能な洗練されたチャットボットやAIアシスタントを開発します。
正確なバイリンガル翻訳と理解: 日本語と英語間の翻訳の精度と品質を向上させたり、いずれかの言語でコンテンツを深く分析し、要約したりします。
結論
Shisa V2 405Bは、特に日本語と英語のユーザーおよび開発者にとって、高性能なバイリンガルAIの大きな飛躍を意味します。その最高レベルのパフォーマンスは、卓越したデータ品質と広範なトレーニングに根ざしており、要求の厳しいアプリケーションにとって理想的な選択肢となります。
日本最高峰のLLMを体験する準備はできましたか?今すぐShisa V2 405B (FP8)とチャットするか、ダウンロードオプションをご覧ください。
Shisa V2 405Bとチャット: chat.shisa.ai
モデルをダウンロード: shisa-ai/shisa-v2-llama3.1-405b on Hugging Face
FAQ
Shisa V2 405Bを実行するにはどのようなハードウェアが必要ですか? フルFP16モデルを実行するには、通常800GBというかなりのメモリが必要で、マルチGPUセットアップ(例:2xH100または1xMI300Xノード)が必須となります。しかし、メモリ要件を大幅に削減する量子化バージョン(FP8、INT8、約100GBからの様々なGGUF量子化モデル)も提供しており、より手頃なハードウェアでもアクセス可能です。簡単なテストには、chat.shisa.aiのウェブデモを気軽にご利用いただけます。
Shisa V2 405Bは他のオープンソースモデルと比較してどうですか? 弊社の評価に基づくと、Shisa V2 405Bは、Shisa V2 70Bを含む、日本で訓練されたこれまでの主要なオープンモデルを大きく上回る性能を発揮します。JA MT-Benchのような業界標準の日本語ベンチマークにおけるその性能は、GPT-4oやDeepSeek-V3といった世界の主要モデルに匹敵することが確認されました。
「Sovereign AI」とは何ですか?Shisa V2 405Bはこれとどう関係しますか? Sovereign AI(ソブリンAI)とは、国家が自国のAIシステムを開発・管理する能力を指します。Shisa.AIのチームは国際色豊かですが、日本を活動拠点に選び、日本の文化と日本語に深い敬意を抱いています。日本国内でShisa V2 405Bのような高性能モデルを開発することは、言語の保存、文化的多様性、データプライバシー/セキュリティ、地政学的レジリエンスに貢献し、オープンソースのアプローチを通じてSovereign AIの原則に合致します。





