ニュース 2026年3月8日 読了 約5分

AIが「作る」時代から「品質を誓う」時代へ。Qurated Labが再定義する、ソフトウェアの新しい信頼

AIがコードを書く時代に、そのコードを誰が、どう検証するのか。Qurated Lab Co-FoundersがReIT × デザインLの共同ラボを立ち上げた背景と、AI駆動型品質保証の全体像を初めて語る。

YS
山田 翔太郎 / 鈴木 保乃香
ReIT × DesignLink

Qurated Lab、始動──

はじめまして。Qurated Lab(キュレイテッド・ラボ)、Co-Founderの山田翔太郎と鈴木保乃香です。

このたび、ReIT(ビジネス要件定義 × AI品質保証)と合同会社デザインL(モダンフルスタック実装 × UX設計)の2社共同で、AI駆動型の品質保証を研究・実践するラボを立ち上げました。

なぜ2社なのか。答えはシンプルです。

AIで高品質なプロダクトを届けるには、「何を作るべきかを正しく定義する力」と「それを最新技術で堅牢に実装する力」の両方が不可欠です。片方だけでは、ビジネスに本当に使えるプロダクトにはなりません。ビジネス視点でお客様に伴走してきたReITと、React / Next.js / Go / AWSで自社SaaSを含む数多くのプロダクトを手掛けてきたデザインLの強みを掛け合わせることで、要件定義から品質保証まで一気通貫で「Qurated(=品質を精選した)」な開発を実現する体制が整いました。

この記事では、私たちがなぜ「品質」にこだわるのか、そしてそのためにどんな仕組みを作っているのかをお伝えします。

AIの熱狂の裏側に潜む「見えないリスク」

今、世界中でAIがコードを書き始めています。昨日まで数日かかっていたプログラムが、AIの手を借りれば数分で形になる。このスピードは、開発の現場に大きな変化をもたらしています。

しかし、その一方で見過ごせない課題も浮上しています。「そのAIが書いたコードは、本当に安全で、長期的に保守し続けられるものなのか?」という問いです。

スピードの代償として、誰も中身を十分にレビューできないまま本番に投入されるコードや、一見動くものの脆弱性を抱えた「技術的負債」が蓄積している現実があります。GitHubの調査でも、AIが生成したコードに対して、変更内容を十分に精査せずに承認してしまう傾向があることが報告されています。

WARN

見えないリスク:「動くコード」と「安全で保守できるコード」は別物です。AIが生成したコードをレビューなしで本番投入することは、技術的負債とセキュリティリスクを同時に蓄積します。

私たちは、この「AIへの不安」を「検証可能な信頼」に変えるために、Qurated Labを設立しました。

「ただAIに作らせる(Generated)だけではなく、プロのプロセスと技術力で精選し、圧倒的品質のプロダクトへと昇華させる(Qurated)」

「AI同士の相互検証」という新しいアプローチ

Qurated Labの最大の特徴は、「AI-Driven Quality Assurance(AI駆動型品質保証)」という仕組みにあります。

よくある「AIにコードを書かせて終わり」というアプローチとは根本的に異なります。私たちは、AIを一つの万能ツールとしてではなく、専門性を持った複数のプロフェッショナルから成るチームとして組織化しました。

具体的には、以下のような専門AIエージェントが、それぞれ独立した責任を持って機能しています。

  • アーキテクト ── システム全体の設計方針と依存関係の整合性を検証し、クリーンアーキテクチャの原則が守られているかを監視します。
  • コードレビュアー ── 可読性・保守性・パフォーマンスの観点からコードを精査し、問題を重大度(CRITICAL / HIGH / MEDIUM)で分類します。
  • セキュリティ・スペシャリスト ── OWASP Top 10に基づく脆弱性スキャン、ハードコードされた秘密鍵の検出、SQLインジェクションやXSSの防止を行います。
  • テストプランナー ── JSTQB(ソフトウェアテスト技術者資格)の設計技法に基づき、テスト条件とオラクルを導出します。
  • 各技術領域のスペシャリスト ── Flutter、React、Go、Node.js、Python、インフラなど、技術スタック固有のベストプラクティスを担保します。

そして最も重要なのが、異なるAIモデルによるクロスレビューです。最初のレビューを行ったAIとは別のAIモデルが、独立した視点から再検証を行います。人間のコードレビューでも「書いた本人ではなく別の人がレビューする」ことが品質向上に不可欠であるように、AI同士でも「別の目」で見ることで、単一モデルのバイアスや見落としを補完します。

数値で語る品質基準

「品質を保証する」と謳うからには、それを測定可能な形で示す必要があります。Qurated Labでは、明確な品質閾値を「必須基準」と「推奨ガイドライン」の2段階で設定しています。

必須基準(CIゲートで自動検証)

品質指標基準値
テストカバレッジ(全体)85%以上
テストカバレッジ(認証・決済・セキュリティ)95%以上
静的解析エラー0件
全テスト成功率100%(失敗があればデプロイ不可)

これらはCIパイプラインのゲートとして実装されており、基準を満たさないコードは自動的にマージがブロックされます。

推奨ガイドライン(コードレビューで確認)

品質指標推奨値
1ファイルあたりの行数800行以下
1関数あたりの行数50行以下
ネスト深度4以下

推奨ガイドラインは、AIエージェントによるコードレビューと人間のレビューの両方で確認しています。機械的にrejectするのではなく、可読性や保守性の観点からケースバイケースで判断します。

INFO

TDDを標準ワークフローとして組み込み:「まずテストを書き、失敗することを確認し、最小限の実装で成功させ、リファクタリングする」という規律をAIが自律的に遂行することで、「動くけれど壊れやすいコード」の発生を根本から防いでいます。

失敗から学び、進化し続ける仕組み

もう一つ、Qurated Labの重要な特徴があります。それは継続的学習システムです。

AIが行ったすべてのレビュー、発見した問題、適用した修正パターンを、成功・失敗それぞれ信頼度スコア付きで記録しています。実績を重ねた判断パターンはより高い優先度で適用され、過去に失敗したアプローチは自動的に回避されます。

つまり、使えば使うほど、そのプロジェクトに最適化された品質保証が実現していく仕組みです。これは静的なルールセットでは得られない、実践に基づく品質の進化です。

品質の低いソフトウェアは、将来必ずビジネスの足を引っ張ります。本番障害による機会損失、膨れ上がるメンテナンスコスト、セキュリティインシデントによる信頼の毀損。Qurated Labが提供するのは、単なる開発効率化ではありません。「ビジネスを加速させながら、同時にリスクを可視化し、守りを固める」という仕組みです。

AIは万能ではありません。私たちの仕組みにも限界はあります。たとえば、ビジネス要件の妥当性判断や、ユーザー体験の感性的な評価は、依然として人間の知見が不可欠です。だからこそ、ReITのビジネス伴走力とデザインLのUX設計力を、AI品質保証と組み合わせています。

Qurated Labはまだ始まったばかりです。今後、この「Knowledge & Insights」では、AI品質保証の実践で得られた知見やノウハウ、そして私たちが直面した課題とその解決策を継続的に発信していきます。

OK

「AIで開発しているが品質に不安がある」「テストや品質保証の体制をどう作ればいいかわからない」「アイデアはあるが、世界レベルのプロダクトに育てるパートナーが必要」── そんな方はぜひ、お気軽にご相談ください。アイデアの種を持つ企業が、世界と戦えるプロダクトへと育つ。その品質の裏付けを、一行のコードから一緒に築いていけたらと思います。


品質の裏付けを、一緒に築きませんか。

「AIで開発しているが品質に不安がある」「テスト・品質保証の体制をどう作ればいいかわからない」そんな方はお気軽にご相談ください。