Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

docs: add Japanese README file #4

Merged
Merged
Show file tree
Hide file tree
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
2 changes: 1 addition & 1 deletion README.md
Original file line number Diff line number Diff line change
@@ -1,6 +1,6 @@
# RAGenT

**English** | [中文文档](README_zh.md)
**English** | [中文文档](README_zh.md) | [日本語](README_ja.md)

Probably one of the lightest native RAG + Agent apps out there,experience the power of Agent-powered models and Agent-driven knowledge bases in one click, without complex configuration.

Expand Down
99 changes: 99 additions & 0 deletions README_ja.md
Original file line number Diff line number Diff line change
@@ -0,0 +1,99 @@
# RAGenT

[English](README.md) | [中文文档](README_zh.md) | **日本語**

おそらく最も軽量なネイティブRAG + Agentアプリの1つであり、複雑な設定なしで、ワンクリックでAgentによるモデルと知識ベースの強力な機能を体験できます。

![image](https://github.com/user-attachments/assets/d78df76f-ee2a-4dbd-955f-5c7b790c9d6d)

## 特徴

チャットとエージェントのインタラクション:
- [x] 💭 シンプルで使いやすいチャットボックスインターフェース
- [x] 🌏️ 言語オプション(簡体字中国語、英語)
- [x] 🔧 複数の(ローカル)モデルソースの推論サポート(Azure OpenAI、Groq、ollama、llamafile)
- [x] ネイティブのFunction Call(OpenAI、Azure OpenAI、OpenAI Like、Ollama)
- [x] 🤖 複数のエージェントモードをオンプレミスで提供
- [x] 🖥️ ダイアログデータのローカルストレージと管理

知識ベース:
- [x] **ネイティブ実装**のリトリーバル強化生成(RAG)、軽量で効率的
- [x] オプションの埋め込みモデル(Hugging Face/OpenAI)
- [x] 使いやすい知識ベース管理
- [x] ハイブリッド検索、再ランキング、および指定ファイルのリトリーバル

> このプロジェクトが気に入ったら、スターを付けてください。それが私にとって最大の励みです!

## 詳細

### 一般

#### 音声入力:

![image](https://github.com/user-attachments/assets/37ea413d-5ef6-4783-a2da-ed6d1d010f58)

### RAGチャット

![image](https://github.com/user-attachments/assets/03d56128-9fe1-48d4-98ae-9beeae3cca52)

モデルの設定(サイドバー)と詳細な参照の表示:

![image](https://github.com/user-attachments/assets/1c2daa5f-b348-4f27-845c-d9499c517456)

RAGの設定:

![image](https://github.com/user-attachments/assets/e4f31a65-94ff-417b-af21-677ff56c7cd7)

### Function Call

Function Callは`Chat`と`AgentChat`の両方のページでサポートされていますが、実装方法が異なります。

#### チャットページ

このページのFunction Callはネイティブであり、すべてのOpenAI互換モデルで動作しますが、モデル自体がFunction Callをサポートしている必要があります。

![image](https://github.com/user-attachments/assets/75163c4d-bcd2-4ef0-83d5-ab27c6527715)

> 呼び出したい関数をカスタマイズすることもできます。記述ルールについては[toolkits.py](tools/toolkits.py)を参照してください。

#### エージェントチャットページ

AutoGenフレームワークに依存して実装されています(テスト中)。モデルの互換性については[AutoGen](https://github.com/microsoft/autogen)のドキュメントを参照してください。

Function CallはLLMの能力を大幅に強化することができ、現在はOpenAI、Azure OpenAI、Groq、およびローカルモデルをサポートしています。([LiteLLM + Ollama](https://microsoft.github.io/autogen/docs/topics/non-openai-models/local-litellm-ollama#using-litellmollama-with-autogen)による)

![openai function call](https://github.com/user-attachments/assets/4eabcedb-5717-46b1-b2f4-4324b5f1fb67)

> 呼び出したい関数をカスタマイズすることもできます。AutoGenの関数記述はネイティブの関数呼び出し記述ルールとは**異なる**ことに注意してください。詳細については[公式ドキュメント](https://microsoft.github.io/autogen/docs/tutorial/tool-use/)およびこのプロジェクトの[tools.py](llm/aoai/tools/tools.py)を参照してください。

## クイックスタート

### Git

0. `git clone https://github.com/Wannabeasmartguy/RAGenT.git`を使用してコードを取得します。
次に、**コマンドプロンプト(CMD)**で実行環境を開き、`pip install -r requirements.txt`を使用して実行依存関係をインストールします。

1. モデル依存関係を設定します:`.env_sample`ファイルを`.env`に変更し、以下の内容を記入します:

- `LANGUAGE`: `English`と`简体中文`をサポートし、デフォルトは`English`です。
- `AZURE_OAI_KEY` : Azure OpenAIモデルを使用している場合、ここにAPIキーを記入します。
- `AZURE_OAI_ENDPOINT` : OpenAIモデルを使用している場合、ここにエンドポイントを記入します。
- `API_VERSION`: Azure OpenAIモデルを使用している場合、ここにAPIバージョンを記入します。
- `API_TYPE`: Azure OpenAIモデルを使用している場合、ここにAPIタイプを記入します。
- `GROQ_API_KEY` : Groqをモデルソースとして使用している場合、ここにAPIキーを記入します。
- `COZE_ACCESS_TOKEN`: 作成したCoze Botを使用する必要がある場合、ここにアクセストークンを記入します。

> Llamafileを使用している場合、Llamafileモデルを起動した後、アプリケーション内でエンドポイントを設定してください。

2. アプリケーションを起動します:

コマンドラインで`python startup.py`を実行すると起動します。

## ルート

- [x] チャット履歴と設定のローカル永続化
- [x] チャット履歴のローカル永続化
- [x] 設定のローカル永続化
- [ ] プリセットエージェントの数を増やす
- [ ] 混合リトリーバル、再ランキング、および指定ファイルのリトリーバル
- [ ] 📚️エージェント駆動の知識ベース
2 changes: 1 addition & 1 deletion README_zh.md
Original file line number Diff line number Diff line change
@@ -1,6 +1,6 @@
# RAGenT

**中文文档** | [English](README.md)
**中文文档** | [English](README.md) | [日本語](README_ja.md)

可能是最轻量级的本地 RAG + Agent 应用之一,无需进行复杂配置,即可一键体验 Agent 加持下不同模型能力的强大提升。

Expand Down