連載 2025年5月7日 GPUとLinuxでLLMを爆速実行してみよう Linux環境における「Ollama」の利用方法と対処例付きで解説(関連情報):クラウドサービスだけじゃない! ローカルPCやサーバ、Kubernetesで生成AI(4) [露崎浩太, 岡本隆史,NTTコミュニケーションズ/NTTデータグループ] 記事を見る 記事を見る