Red Hat Summit 2025 キーノートにおける発表内容

最新ニュース

2025年5月20日 米国ボストンにて Red Hat Summit 2025 が開幕しました。

Red Hat Summit 2025 のキーノート「Keynote: Hybrid cloud evolves to deliver enterprise innovation」では、Matt Hicks氏がAIがもたらす興奮と、ルーチン業務の自動化、新たな可能性の解放(Red Hat Summit 2025の中で Unlock What’s Next がキーワードに使われています。)を発表しました。一方でAIがコアバリューや雇用に与える影響についても懸念を示し、オープンソースの歴史を例に、変化を受け入れ新たな価値を創造する重要性を述べています。

この状況はオープンソースソフトウェアのこれまでの経験からすると、現在のAIも同様の状況にあり、AIコミュニティとオープンソースの間には知的財産などの緊張感があるものの、適切に対応することで、AIが人間の能力を増幅し、創造性や直感を高める可能性を強調しました。

また、AI技術を誰もが利用できるようにすることで、新たなイノベーションが生まれることを期待していると発表しています。

キーノートにて発表された主なトピックスとしては下記になります。下記のトピックスについて本記事では簡潔に概要をまとめていきたいと思います。

  • Red Hat Enterprise Linux 10
  • Red Hat AI Inference Server
  • llm-d コミュニティ、llamastack、MCPの提供計画

Red Hat Enterprise Linux 10 の発表

Red Hat Enterprise Linux (RHEL) が長年にわたりエンタープライズの基盤であり続けていることを紹介し、そして、クラウドやAIの複雑化に対応するため、RHELが大幅に進化した Red Hat Enterprise Linux 10 を発表しました。

Image Mode、Lightspeed、セキュリティの3つの主要な機能を発表しました。Image Mode はシステムのアップデートを容易にし、LightspeedはAIを活用してRHELの管理を支援し、セキュリティ機能は将来の脅威に対応するものとなります。

Red Hat Enterprise Linux Lightspeed の提供はRHEL10 からの提供となります。

Red Hat AI Inference Server

Red Hat AI Inference Server は、ハイブリッドクラウド環境全体での生成AI(GenAI)の展開を簡素化し加速します。あらゆるモデルをあらゆるアクセラレータ、あらゆるクラウドで実行可能にすることで、GenAIの民主化を目指します 。

多くの組織はモデルをトレーニングできますが、効率的でスケーラブル、かつコスト効率の高い推論に苦労しています。AI Inference Serverは、特にvLLMとNeural Magicの圧縮・最適化技術 を活用し、このAI導入における「最後の難関」に直接対処します。ハードウェアの複雑さを抽象化し、モデル提供を最適化することで、Red HatはGenAIを本番環境に導入する際の障壁を下げることを目指しています。

llm-d コミュニティ、llamastack、MCPの提供計画

llm-d コミュニティが発表され、これはKubernetesとvLLMを使用してスケーラブルな分散型生成AI推論を可能にするオープンソースプロジェクトであり、大規模な推論という極めて重要なニーズに対応します 。

llm-dはネイティブKubernetesアーキテクチャ、vLLMベースの分散推論、インテリジェントなAI対応ネットワークルーティング、KVキャッシュオフロード(LMCacheベース)、および高性能通信API(例:NVIDIA NIXL)を搭載しています 。

同プロジェクトにはCoreWeave、Google Cloud、IBM Research、NVIDIAといった創設貢献者との協力のもと立ち上げられ、AMD、Cisco、Hugging Face、Intel、Lambda、Mistral AIなどの業界リーダーや、カリフォルニア大学バークレー校、シカゴ大学(vLLMおよびLMCacheの創始者)などの大学支援者が参加しています 。

この他にも多数の発表が行われておりますので、情報は順次アップデートしていきたいと思います。