1. 専門家主導型AI開発

QESIAでは、熟練エンジニアの知見とローカルAIを融合させた、独自の次世代開発フローを採用しています。 単なるコード生成にとどまらず、工業製品に求められる高い信頼性と保守性を担保します。

2. アーキテクチャ

Expert-Led AI Engineering Workflow

3. 開発プロセス

ナレッジの構造化とRAG(検索拡張生成)の構築

プロジェクト固有のドメイン知識をAIが深層学習し、セキュアなRAGデータベースを構築します。

・構成要素: ベクターデータベース(文章・ドキュメント)とグラフデータベース(コードの依存関係・論理構造)のハイブリッド構成。

・ナレッジ分類: 「アルゴリズム実装」「業務規約(安全連鎖等)」「ハードウェア制約(メモリ・通信)」をタグ付けして管理。これにより、文脈に応じた最適な情報の取り出しが可能になります。

サイドカー方式による制約条件管理

既存アーキテクチャやコーディング規約を「制約ファイル群(Constraint Set)」としてコードと並行管理します。

・実現詳細: ディレクトリ単位で .rules/.constrains 等の定義ファイルを配置。

・メリット: AIがコードを生成する際、常にこれらの物理的・論理的制約を「参照」しながら推論するため、現場のルールを逸脱しないコード出力が可能です。

ローカル環境での推論とAIエージェント

機密性の高い産業用コードを扱うため、外部との通信を遮断したローカルサーバー上でLLM(14B〜30Bクラス)を運用します。

・自律性: 単なるプロンプト実行ではなく、ReAct(Reasoning and Acting)ループを備えたAIエージェントが、思考・実行・検証を自律的に繰り返します。

・ポイント: ドメイン特化型であれば、通常PCやグラボのスペック内のローカルAIで完結でき、クラウド利用の必要はありません。

要件定義のタグ化(Tag-Based Inputs)

曖昧な自然言語の要件を、技術専門家が「技術タグ」に変換してAIへ入力します。

・最適化: [RealTime:High] [Memory:Limited] [Safety:SIL2] といったタグにより、AIの推論重みを特定の技術領域へ最適化させます。

AI生成 ↔ 専門家による検証とフィードバック

AIが生成したコードは必ず技術専門家がレビューし、必要に応じて修正指示または手動修正を行います。

・重要ポイント: 専門家による修正内容は即座にRAGデータベースへ再学習(フィードバック)されます。これにより、AIは同じミスを二度と繰り返さず、開発を重ねるほどに賢くなります。

ユニットテスト・機能テストの自動生成

生成されたコードに対し、AIが自動でテストケースを生成し、実行環境(シミュレータ)で検証します。

・信頼性担保: ハードウェアを模擬したMock環境でのテストを自動化し、初期段階で論理的エラーを100%排除します。

設計ドキュメントの自動生成

最終的なコードと実装意図に基づき、AIが設計仕様書を自動生成します。

・最終品質: 最後に技術専門家が加筆・調整を行い、エンジニアの意図が正しく反映された正式な納品ドキュメントとして完成させます。

4. Technical Stack

[Inference & Agent]
- Ollama / vLLM / Docker (ローカル環境での高速な推論実行とコンテナ管理)
- ReAct-based Agents (自律的な思考・実行・検証ループの実現)

[Language Models]
- Llama 3 / DeepSeek / Qwen (14B〜30Bクラスの産業用ドメイン特化型モデル)

[Knowledge Management]
- Hybrid RAG: FAISS (ベクトル検索) & Neo4j (コード依存関係のグラフ管理)
- Sidecar Constraints: JSON/Markdown (ディレクトリ単位の設計制約管理)

[Quality Assurance]
- Automated Linting: Clang-Tidy / Verilog-Lint (生成コードの静的解析)
- Hardware Mocking: Digital Twin / Emulator (物理環境を模した自動検証)

[Documentation]
- Automated DocGen (実装意図を反映した設計書・仕様書の自動生成)