Releases: Sunwood-ai-labs/moa
🚀 MOA v0.6.2 リリースノート
📋 概要
MOA v0.6.2 は、Bedrock モデルの統合、パフォーマンスの改善、Docker Compose 設定の追加など、いくつかの重要な変更を含むリリースです。
✨ 新機能
- 🎉 Bedrock モデルの統合 (commit: 1861a7f) 🟢
- Spellbook 設定ファイルに Bedrock モデルのリストを追加しました。
- これにより、ユーザーは Spellbook インターフェースから Bedrock モデルを選択して利用できます。
- 🎉 Litellm を使用した Bedrock モデルとの統合 (commit: 4fa2593) 🟢
litellm
を使用して Bedrock モデルと通信するサンプルコードを追加しました。- このコードは、
openai
ライブラリを用いて Bedrock のエンドポイントにリクエストを送信し、レスポンスを処理します。 - 開発者はこのサンプルコードを参考に、Bedrock モデルを自身のアプリケーションに簡単に統合できます。
🛠 改善点
- 🚀 Docker Compose 設定の追加 (commit: 226e981, commit: c08a5c9, commit: bdc6fb2, commit: 1f4390c) 🟢
- Litellm サーバーの実行のための Docker Compose 設定ファイルを追加しました。
- パイプライン実行のための Docker Compose 設定ファイルを追加しました。
- Prometheus によるメトリクス監視設定を追加しました。
- Ollama と連携するための Docker Compose 設定ファイルを追加しました。
- 🚀 Dockerfile の更新 (commit: e2cb8d2) 🟢
- Bedrock モデルの利用に必要な依存関係を追加しました。
- ビルドプロセスを最適化し、イメージサイズを縮小しました。
- 🚀 open webui + pipeline + langfuse のサンプルコード修正 (commit: 78e8ed7) 🟢
- litellm経由でopen webui+pipeline+langfuse環境にアクセスするためのサンプルコードを修正
- モデルを
ollama/llm-jp-13b-v2
からbedrock/claude-3-haiku
に変更 - api_base を
http://localhost:11434
からhttp://localhost:4000
に変更
🐛 バグ修正
- 🐛 使用しない docker-compose.ollama.track.yml を削除 (commit: c7a3a42) 🟢
- 🐛 使用しない docker-compose.gpu.yaml を削除 (commit: 72639b8) 🟢
⚠️ 重要な変更
⚠️ Docker Compose 設定ファイルdocker-compose.ollama.track.yml
とdocker-compose.gpu.yaml
が削除されました。 🟢⚠️ サンプルコードexample/08_litellm_ollama.py
が変更されました。 🟢
📦 アップグレード手順
- 現在の MOA を停止します。
- リポジトリを最新版に更新します。
docker-compose up -d
コマンドを実行して MOA を再起動します。
👏 謝辞
このリリースへの貢献をしてくださった Maki に感謝いたします。
🚀 MOA v0.6.1 リリースノート
📋 概要
MOA v0.6.1は、Bedrockの埋め込みモデルの追加、Prometheusによるモニタリング機能の強化、DocuMindのリリースノート生成設定ファイルの追加など、さまざまな機能強化と安定性向上を実現したリリースです。
✨ 新機能
- 🎉 DocuMindのリリースノート生成設定ファイルを追加 (commit: fd13a6b) 🟢
- SourceSageのDocuMindモードの設定ファイルを新規作成
- Gemini 1.5 Flashモデルを使用するよう設定
- リポジトリ情報、出力先、DB情報などの基本設定を追加
- 将来の拡張性を考慮したコメントアウト項目を含む
- 🎉 Bedrockの埋め込みモデルを追加 (commit: aa61253) 🟢
- Amazon Titan、Cohere英語版、Cohere多言語版の3つの埋め込みモデルを追加
- 各モデルにus-east-1リージョンを指定
- テキスト埋め込み機能の強化により、より高度なテキスト分析が可能に
- 🎉 Prometheusモニタリングの追加 (commit: 2889926) 🟢
- docker-compose.ollama.track.ymlにPrometheusサービスを追加
- prometheus.ymlでLiteLLMのメトリクス収集を設定
- LiteLLMのパフォーマンスモニタリングが可能に
- 🎉 GPU サポートのために docker-compose.ollama.yml から GPU 設定を削除 (commit: f47a63a) 🟢
- GPU を使用するための設定は
docker-compose.gpu.yaml
に移動したため、このファイルから削除しました。 - これにより、GPU を使用しない設定がシンプルになります。
- GPU を使用するための設定は
- 🎉 GPU を使用するための Docker Compose 設定を追加 (commit: 30b39a6) 🟢
- Ollama サービスに GPU を割り当てるための設定を追加しました。
- 環境変変数
OLLAMA_GPU_DRIVER
とOLLAMA_GPU_COUNT
を使用して、GPU ドライバーと使用する GPU の数を指定できるようにしました。
- 🎉 AIRAコマンドにClaude 3.5 Sonnetモデルを追加 (commit: 432f3d6) 🟢
- Claude 3.5 Sonnet (20240620版) を使用するためのコマンドを追加
- 開発者がより多様なAIモデルを選択できるようになりました
- 🎉 LiteLLMを使用してOllamaモデルにアクセスするサンプルスクリプトを追加 (commit: b2a7828) 🟢
- LiteLLMライブラリを使用して、Ollamaでホストされている日本語LLMモデル
ollama/llm-jp-13b-v2
にアクセスするサンプルスクリプトを追加しました。 - このスクリプトは、
"20語で答えてください。あなたは誰ですか?"
という質問をモデルに送信し、その応答を出力します。 - このサンプルスクリプトは、開発者がLiteLLMとOllamaを使用して独自のLLMアプリケーションを構築するための出発点として機能します。
- LiteLLMライブラリを使用して、Ollamaでホストされている日本語LLMモデル
🛠 改善点
- 🚀 AIRA設定ファイルにGitHubリポジトリ自動生成の設定を追加 (commit: 04a4205, commit: 362c705) 🟢
- AIRAの初期設定を簡素化し、ユーザーがより簡単にリポジトリを作成してプロジェクトを開始できるようにすることを目指しています。
- 開発環境でもAIRAのGitHubリポジトリ自動生成機能を利用できるようになりました。
- 🚀 READMEにLiteLLMとOllamaの起動方法を追加 (commit: f4cd6bb) 🟢
- ユーザーはこれらのツールを簡単にセットアップして使用を開始できます。
- 🚀 Ollama用のDocker Compose設定を追加 (commit: 07cd7df) 🟢
- 開発者はOllamaを簡単に実行し、LLMモデルをホストできます。
- GPUサポートも設定に追加しました。
- 🚀 LiteLLM用のDocker Compose設定を追加 (commit: 7fc5618) 🟢
- 開発者はLiteLLMを簡単に実行し、設定ファイルで指定されたLLMモデルにアクセスできます。
- 🚀 LiteLLM設定ファイルにOllamaモデルを追加 (commit: 3479cf9) 🟢
- LiteLLM設定ファイルに、Ollamaでホストされている日本語LLMモデル
ollama/llm-jp-13b-v2
とその他のLLMモデルを追加しました。 - 開発者はLiteLLMを使用してこれらのモデルに簡単にアクセスし、さまざまなLLMタスクに使用できるようになりました。
- LiteLLM設定ファイルに、Ollamaでホストされている日本語LLMモデル
- 🚀 Difyのサブモジュールを更新 (commit: dbab175) 🟢
- Difyのサブモジュールを最新バージョンに更新しました。
- 🚀 OllamaとLiteLLMのDocker設定を更新 (commit: 677bb50) 🟢
- Ollamaのポートフォワーディングを無効化し、LiteLLM経由でのアクセスに変更しました。
- LiteLLMコンテナにAWSクレデンシャルのマウントを追加し、Bedrockへのアクセスを可能にしました。
- Open Web UIのポートを
8181
に変更しました。
- 🚀 Bedrockモデルのサポートを追加 (commit: 26db76e) 🟢
- Amazon Bedrockで利用可能な様々なLLMを
config.yaml
に追加しました。 - これにより、Bedrockを通してClaudeやLlama2等のモデルが利用可能になります。
- Amazon Bedrockで利用可能な様々なLLMを
🐛 バグ修正
- 🐛 [修正されたバグの説明] (commit: xxxxxxx) 🔴 🔄
⚠️ 重要な変更
⚠️ [重要な変更点や注意が必要な点] 🔴 🔄
📦 アップグレード手順
- [必要に応じてアップグレード手順や注意事項を記載] 🔴
👏 謝辞
- このリリースへの貢献をしてくださったMaki様に感謝いたします。 🟢
🎉MOA v0.6.0 リリースノート
新機能
spellbook
ディレクトリを追加し、そこにollama-webuiとlangfuseサブモジュールを移動しました。これによりプロジェクト構造がより整理されました。spellbook
ディレクトリに新しくdify
サブモジュールを追加しました。dify.AI社が開発するオープンソースのAIチャットボットフレームワークです。example
ディレクトリに新しいサンプルスクリプト07_KnowledgeRetreival_Chatbot_AWS.yml
を追加しました。これはAWS BedrockによるLLMを使った知識検索とチャットボットの例です。
変更点
.env.example
ファイルに新しい環境変数を追加しました。OLLAMA_BASE_URL
: ollama webuiのベースURLを指定します。デフォルトはhttp://ollama:11434
WEBUI_SECRET_KEY
: webui用のシークレットキーを設定します。LITELLM_PROXY_HOST
: LiteLLMのプロキシホストを指定します。デフォルトは0.0.0.0
OPEN_WEBUI_PORT
: webui用のポート番号を指定します。デフォルトは8080
.gitmodules
ファイルを更新し、サブモジュールのパスをspellbook
ディレクトリ下に変更しました。README.md
ファイルを大幅に改善し、プロジェクトの概要、特徴、始め方、使い方などの情報を充実させました。ollama webui
やlangfuse
の使い方を詳しく説明- 新たに追加した
dify
の起動方法も追記 - 誤字の修正や言い回しの最適化、技術用語の統一などを行い、全体的に読みやすくしました。
修正
.gitignore
ファイルにspellbook
ディレクトリを追加し、サブモジュールのコミットが除外されるようにしました。
注意事項
- このバージョンでは、
langfuse
とollama webui
の起動方法が変更になっています。READMEの手順に従って環境変数の設定とコマンドの実行をお願いします。 - 新しく追加した
dify
は、まだ実験的な機能です。本番環境での使用はお控えください。 .env
ファイルに設定する認証情報などの機密情報は、誤ってコミットしないよう十分ご注意ください。
MOAをお使いいただきありがとうございます。ご質問やご要望がありましたら、ぜひお知らせください。
🎉MOA v0.5.0 リリースノート
MOA (Magic of AWS) v0.5.0がリリースされました。このリリースには、新機能の追加、サンプルスクリプトの拡充、設定ファイルの更新などが含まれています。
新機能:
- langfuse サブモジュールの追加
- Langfuseは、LLMアプリケーションを共同でデバッグ、分析、反復するためのオープンソースのLLMエンジニアリングプラットフォームです
- LLM呼び出しとアプリ内の関連ロジックを追跡し、複雑なログとユーザーセッションを検査・デバッグできます
- プロンプト管理、プロンプトエンジニアリング、LLMコスト・レイテンシ・品質などのメトリクス分析、スコアリングと評価、実験と比較テストなどの機能を提供します
- AWS BedrockやClaudeAIなどの最新のAIサービスを手軽に試せる環境を提供
- LiteLLMプロジェクトを利用した多様なLLMモデルの統一的なインターフェースでの利用
- OllamaのWebUIを利用した独自LLMモデルのチャットボットとしての動作
改良点:
- .env.exampleファイルに新しい環境変数
OLLAMA_BASE_URL
,WEBUI_SECRET_KEY
,LITELLM_PROXY_HOST
,OPEN_WEBUI_PORT
を追加。APIキーの設定も更新 - docker-compose.ollama.yml ファイルでollamaとwebuiサービスの詳細な構成を定義。GPU利用の設定も可能に
- data/litellm/config.yamlファイルにLiteLLMの詳細設定を追加
- langfuse設定用の環境変数
LANGFUSE_PUBLIC_KEY
,LANGFUSE_SECRET_KEY
,OPENAI_API_KEY
を追加
サンプルスクリプトの追加:
- example/06_langfuse_openai_chat_completion.py : LangfuseとOpenAI APIを使用したチャットのサンプルを追加
- example/README.md : 新しいサンプルスクリプトの説明を追記
その他の変更:
- .gitignoreファイル、.gitmodulesファイルの更新
- READMEのイメージ参照先をHugging Faceに変更
- READMEにMOAの特徴、ollama webui、langfuseの使用方法などを追記
- リリースノート記載の自動化のため、SourceSageとClaude AIを活用
このリリースにより、MOAはAWSの最新AIサービスを手軽に試せる強力な環境へと進化しました。特にLangfuseの統合により、LLMアプリケーションの開発・監視・テストを包括的にサポートできるようになりました。
ぜひ新機能を活用し、クラウド上でのAI開発を加速させてください。引き続きMOAをよろしくお願いいたします。
🎉 MOA v0.4.1 リリースノート
新機能と改善点
-
WebUI開放:
open-webui
とollama-webui
の新しいサブモジュールが.gitmodules
に追加されました。これにより、WebUIの前面と背面の構築手順がDockerfile.openweb.ui
で明確に定義されています。さらに、CUDAの使用やモデルの選択などのカスタマイズオプションが追加されました。 -
Dockerの設定更新:
docker-compose.ollama.yml
が更新され、新しいDockerfile.openweb.ui
を使用するように変更されました。また、litellm
サービスに特定の設定とコマンドが指定されました。 -
モデル設定の強化:
data/litellm/config.yaml
に新しいモデル設定が追加され、既存の設定も更新されました。トークンの上限値を反映した新しいモデル名とmax_tokens
パラメータが追加されました。
バグ修正と最適化
ollama-webui
サブプロジェクトのコミットが特定の最新のものに更新され、安定性が向上しました。
開発者向けの注意点
- 新しいWebUIサブモジュールの追加に伴い、WebUI関連の設定やビルドプロセスに変更がありますので、ドキュメントと例を確認してください。
このリリースは、WebUIの構築と管理を容易にし、より多様なカスタマイズオプションを提供することを目的としています。ユーザーは新しい機能を活用して、より柔軟にシステムを構築できるようになります。
🎉 MOA v0.4.0 リリースノート
🎉 New Features
1. ollama と webui サービスの統合
- 🐳 新しい
docker-compose.ollama.yml
ファイルを追加し、ollama と webui サービスの構成を定義- サービスのイメージ、ポート、環境設定、ボリュームなど詳細な構成を定義
- 🌐 ollama の WebUI 起動コマンドを追加:
docker-compose -f docker-compose.ollama.yml up
- 📝
config.yaml
ファイルに複数のモデル設定を追加- litellm 設定にモデルの API エンドポイントとキーを指定する方法を示す
- 各モデルについての詳細な設定情報を含む
2. 環境設定の強化
- 🔒
.env.example
ファイルに新しい環境変数を追加し、API キーの設定を更新OLLAMA_BASE_URL
,WEBUI_SECRET_KEY
,LITELLM_PROXY_HOST
,OPEN_WEBUI_PORT
を追加
- 🙈
.gitignore
に ollama 関連ファイルの例外を追加!data/ollama/.gitKeep
で特定のファイルを除外解除data/ollama
ディレクトリを追加
📚 Documentation Updates
- 📘 README.md に新しいセクションを追加し、コマンドを修正
- docker-compose のコマンドを
docker-compose exec app /bin/zsh
に更新して zsh シェルの起動コマンドを明確化
- docker-compose のコマンドを
この MOA v0.4.0 リリースでは、ollama と webui サービスの統合が主要な機能追加となっています。新しい docker-compose.ollama.yml
ファイルにより、これらのサービスの詳細な構成が定義され、WebUI の起動が容易になりました。また、config.yaml
ファイルに複数のモデル設定を追加し、各モデルの API エンドポイントとキーの指定方法を示しました。
環境設定面では、.env.example
ファイルに新しい環境変数を追加し、API キーの設定を更新しました。.gitignore
にも ollama 関連ファイルの例外が追加され、セキュリティが強化されています。
今後も MOA の機能拡張と改善に取り組んでいきます。ご意見・ご要望などございましたら、気軽にお知らせください。
MOA v0.3.1 リリースノート
New Features
-
LiteLLMとClaude AIチャットボットのサポートを追加
- サンプルスクリプト
03_litellm_claude.py
は、LiteLLMのcompletion
メソッドを使用してClaude AIとチャットする方法を示しています - チャットボットに
Claude-3-haiku-20240307
モデルを指定 - ユーザーメッセージを送信し、Claude AIの応答を出力
- サンプルスクリプト
-
AWS Claude AIを使用したチャットボットの例を追加
- サンプルスクリプト
04_aws_claude_chatbot.py
は、AWS Claude AIを使用したチャットボットの使用方法を示しています chat_with_aws_claude
関数を定義して、Claude AIとのチャットを実装anthropic.claude-3-haiku-20240307-v1:0
モデルを使用- ユーザーメッセージを送信し、チャットボットの応答を出力
- LiteLLMのデバッグ情報を表示するオプションを追加
- サンプルスクリプト
-
Gemini APIを使用したチャット例を追加
- サンプルスクリプト
05_gemini_chat.py
は、Gemini APIを使用したチャットを示しています - LiteLLMの
completion
メソッドを使用 gemini/gemini-pro
モデルを指定- ユーザーメッセージを送信し、応答を出力
- サンプルスクリプト
Enhancements
-
AWS CLI 2、zsh、zpreztoをサポートするようにDockerfileを更新
- AWS CLI 2をインストール
- デフォルトのシェルをzshに変更
- zpreztoとzprezto-contribをインストールして設定
- 必要なPythonパッケージをインストール
- 作業ディレクトリを設定
-
必要なPythonパッケージを追加
- 必要なPythonパッケージを指定した
requirements.txt
を追加:- boto3
- art
- termcolor
- litellm
- google-generativeai
- 必要なPythonパッケージを指定した
Documentation
-
.env.example
にAWS関連の設定を追加- 以下のAWS設定を
.env.example
に追加:- AWS_REGION_NAME
- AWS_DEFAULT_REGION
- AWS_DEFAULT_OUTPUT
- ANTHROPIC_API_KEY(コメントアウト)
- 以下のAWS設定を
-
ドキュメントに「サンプルスクリプト」セクションと新しいREADMEを追加
README.md
に新しい「サンプルスクリプト」セクションを追加し、AWS Bedrockの使用例を示すサンプルスクリプトの説明とリンクを記載example
ディレクトリに新しいREADME.md
を作成し、AWS Bedrockを使用したサンプルスクリプトの詳細な説明を記載。具体的な使用例やステップバイステップの手順を含む
Chores
docker-compose.yml
からAWS関連の環境変数を削除- 以下の環境変数を
docker-compose.yml
から削除:- AWS_DEFAULT_REGION
- AWS_DEFAULT_OUTPUT
- これらの設定は
.env
ファイルで管理されるため、docker-compose.yml
では不要になった
- 以下の環境変数を
MOA v0.2.0 リリースノート
🎉 新機能
- DockerとPythonスクリプトの機能拡張
- Dockerfileにboto3, art, termcolorパッケージのインストールを追加
- docker-compose.ymlでAWSのデフォルトリージョンをap-northeast-1からus-east-2に変更
- 新しいPythonスクリプト
example/01_list_bedrock_models.py
を追加し、Bedrockクライアントを通じてファウンデーションモデルの一覧を取得して出力 example/02_bedrock_text_generation.py
を追加し、指定されたBedrockモデルにテキスト生成リクエストを送信する機能を実装
📚 ドキュメントの改善
-
README.mdの日本語化と詳細なセットアップガイドの追加
- README.mdの内容を英語から日本語に全面的に翻訳し、プロジェクトの説明と使用方法をより詳細に記述
- 「はじめに」セクションでプロジェクトの目的と概要を説明
- 「始め方」セクションで前提条件と具体的なインストール手順を追加
- 「使い方」セクションでDockerを利用したAWS CLIの起動と操作方法を詳細に解説
- 環境変数の設定やセキュリティに関する注意点を強調
- プロジェクトのディレクトリ構造と各ファイルの説明を追加
- 「更新情報」、「コントリビューション」、「ライセンス」、「謝辞」、「お問い合わせ」セクションを新設して、コミュニティ参加とフィードバックを奨励
- README.mdの内容を英語から日本語に全面的に翻訳し、プロジェクトの説明と使用方法をより詳細に記述
-
ドキュメントにサンプルスクリプトのセクションと新しいREADMEを追加
- README.mdに「サンプルスクリプト」のセクションが新たに追加。AWS Bedrockの使用例を示すサンプルスクリプトへの説明とリンクを含む
- exampleディレクトリに新しいREADME.mdを作成し、AWS Bedrockを使用したサンプルスクリプトの詳細な説明を記載
- 具体的なスクリプトの使用例とステップバイステップの説明を含む
🔧 その他の変更
- リリースブランチ0.2.0をmainにマージ
- featureブランチ(sample-model)の変更をdevelopブランチにマージ
MOA v0.2.0では、DockerとPythonスクリプトの機能が拡張され、より簡単にAWS Bedrockを使い始められるようになりました。日本語で詳細に書かれたドキュメントとサンプルスクリプトにより、初心者でもプロジェクトを理解し活用しやすくなっています。
今後もコミュニティからのフィードバックを歓迎しますので、ぜひお試しください!
MOA v0.1.0 リリースノート
MOA (Magic of AWS) プロジェクトの最初のリリースとなる v0.1.0 をお届けします。このリリースでは、初心者でも Docker を使って AWS CLI v2 を簡単に使えるようにすることを目的としています。
🚀 主な機能
- AWS CLI v2 環境を Docker で構築
- Dockerfile に AWS CLI v2 のインストールプロセスを追加
- docker-compose.yml に AWS CLI の設定を反映
- 詳細なセットアップガイドとプロジェクトの説明を追加
- README.md をプロジェクトの目的と使用方法に合わせて全面的に更新
- 具体的なインストール手順と使用方法を解説
- .env.example に AWS 認証情報の例を追加
- 開発者が AWS の認証情報を設定する際のガイドラインを提供
🛠️ 改善点
- プロジェクトの目的と使用方法をより明確に説明することで、ユーザーがプロジェクトを理解しやすくなりました。
- 具体的なセットアップ手順と使用方法を提供することで、初心者でもプロジェクトを簡単に始められるようになりました。
- AWS 認証情報の設定例を追加することで、開発者が環境変数を設定する際のガイドラインが提供されるようになりました。
📧 フィードバック
MOA プロジェクトに関するご意見・ご感想は、GitHub の Issue または Pull Request からお寄せください。皆様からのフィードバックを心よりお待ちしております。
今後とも MOA プロジェクトをよろしくお願いいたします。