Skill.md検索
2258件の Skill.mdから、あなたに最適なものを見つけましょう
2つのAIモデルで実装コードを徹底レビュー
by NagasakaH
デュアルモデルによる厳密なレビュー: Opus 4.6とCodex 5.3の2つのAIモデルを並列実行させ、互いに異なる視点からコード品質をチェックして不具合を見落とさない 変更意図ごとにグループ化: コミット差分から実装者の「何をしたいのか」を自動分析し、関連する変更をまとめてレビューすることで、局所的な視点ではなく全体的な影響を把握 9つのチェック項目で網羅的に検査: 設計準拠性、静的解析、セキュリティ、パフォーマンス、テスト、ドキュメントなど、企業開発に必要なすべての観点から自動検査 Critical・Major・Minor全レベルを指摘: 本番障害につながる大きな問題から軽微なスタイル違反まで、見落としゼロの品質基準(ゼロトレランス)で検査 指摘と修正案をレポート化: グループ別レポートと統合サマリーを自動生成し、どの変更にどんな問題があるかが一目でわかるドキュメントを作成 プロダクト開発チームのリーダー: PR/MRレビューの品質を担保したい、人手による見落としを減らしたいという課題を解決 品質管理・QAエンジニア: 本番バグを事前に検出し、リリースの安全性を向上させたい スタートアップ・小規模チーム: 専任のコードレビュアーを置けない状況でも一貫した品質基準を維持したい セキュリティやパフォーマンスを重視するプロジェクト: 人間が見落としやすい脆弱性やボトルネックを自動検査したい コミット一覧を取得 → MR/PRのディスクリプション(説明文)から自動的にレビュー要求項目を抽出 → コミット意図を分析してグループ化 → グループごとに「Opus 4.6 + Codex 5.3による並列レビュー」を実施 → Opus 4.6が最終判定 → グループ別レポートと統合サマリーを生成して出力。レビュー対象は8つのカテゴリ(設計準拠性、静的解析、言語別ベストプラクティス、セキュリティ、テスト・CI、パフォーマンス、ドキュメント、Git作法)+MR記載の要求項目。重大度はCritical(差し戻し)→Major(条件付き承認)→Minor(条件付き承認)→Info(提案)で判定。指摘と修正案の提示が責務で、実際の修正はcode-review-fixスキルで対応。「コードレビュー」「PRレビュー」「変更レビュー」「レビューして」などで発動。
プロジェクト状態を自動で読み書き・管理できる
by NagasakaH
project.yaml の一元管理: ワークフロー実行前後に自動的に状態を読み取り・更新し、プロジェクト情報の一貫性を保つ。 セクション初期化と更新: brainstorming、investigation、design など各ステップのセクションを自動生成し、結果をワンコマンドで書き込み。 前提条件の自動チェック: 各ステップ実行前に、先行ステップが完了・承認されているか自動検証し、開始可否を判定。 人間チェックポイント管理: レビュー承認・差し戻しを記録し、対応完了時に自動更新。 スナップショット取得: セクションの現在状態をいつでも確認でき、トラブル発生時の復旧に活用。 プロジェクト進行状況を見える化したいプロジェクトマネージャー・リーダー 複数ステップを順序立てて実行する必要がある開発チーム 各ステップの完了状況や承認を忘れず追跡したい人 設計書や計画書の更新を自動化したい人 project.yaml / setup.yaml の読み書きを一元管理するスキル。ワークフロースキル(investigation, design, plan等)の実行前後に呼び出し、コンテキスト取得や結果書き戻しを実行します。project.yamlは全プロセスのSSoT(Single Source of Truth)で、setup.yamlはタスク初期設定ファイル。project.yaml操作はscripts/project-yaml-helper.sh経由で実施します。ヘルパーコマンドはstatus(ステータス確認)、validate(スキーマ+前提条件バリデーション)、init-section(セクション雛形生成)、update(セクション更新)、checkpoint(人間チェックポイント記録)、resolve-checkpoint(解決記録)、snapshot-section(スナップショット取得)など。project.yamlは meta、setup、brainstorming、overview、investigation、design、plan、implement、verification、code_review、finishing、human_checkpoints の各セクション構成。操作パターンはコンテキスト読み取り、セクション初期化+更新、前提条件チェック、人間チェックポイント管理を実施。ステータス値はライフサイクル(pending→in_progress→completed/failed/skipped)、レビュー(pending→approved/conditional/rejected)、チェック結果(pass/fail/skip/warning)、人間チェックポイント(pending→approved/revision_requested)。
AWSドキュメントをAIが検索・読取・推奨
by NagasakaH
AWSドキュメント全体から必要な情報を素早く検索し、最適なページを見つけられます。 指定したドキュメントページをMarkdown形式で読み取り、長いドキュメントは分割して取得できます。 現在見ているドキュメントページから、関連する他のページを自動推奨(人気・新着・類似・次ステップ)してくれます。 URLやフレーズを指定するだけで、ドキュメント検索・読取・推奨がすべて自動実行されます。 AWSの設定やトラブルシューティング方法を調べることが多いエンジニア・インフラ担当者 AWSサービスの詳細な使い方や設定オプションを確認したい人 膨大なAWSドキュメントから必要な情報を素早く見つけたい人
AWSの知識を総合的に調査・確認
by NagasakaH
AWS公式ドキュメントを複数の観点(一般情報・リファレンス・トラブルシューティング・最新情報など)から検索できます。 各AWSリージョンで特定のサービスやAPI、CloudFormationリソース(インフラコード化)が利用可能かを一瞬で確認できます。 AWSドキュメントページを読み込んで、次に見るべき関連ページを自動推奨してくれます。 全AWSリージョン一覧を取得して、グローバル展開時の地域対応を確認できます。 AWSの新しいサービスや機能を調べる必要がある設計者・アーキテクト AWSのマルチリージョン対応やリージョン毎の機能差を確認したい人 AWSの公式情報を信頼できる形で素早く取得したい開発者・運用担当者
新機能やコンポーネント設計をAIと対話で探究
by NagasakaH
実装前に、あいまいな要件や意図を段階的な質問で明確にし、完全な設計仕様に発展させます。 複数のアプローチ案(2~3通り)を提案し、それぞれのメリット・デメリット(トレードオフ)を説明します。 テスト戦略(単体テスト・結合テスト・E2Eテスト)を含めた設計を提示し、実装後の確認方法を事前に定義します。 ブレインストーミングの結果を設計ドキュメントとして自動作成し、決定事項と追加要件をまとめてくれます。 新しい機能追加やコンポーネント作成の前に、設計をきちんと詰めたい開発者 要件があいまいで、実装前に関係者と合意を取りたいプロジェクトマネージャー・PM 技術的なアプローチの比較検討が必要な設計者・アーキテクト
コードレビュー指摘を技術的に検証して修正
by NagasakaH
コードレビューの指摘事項を一つひとつ技術的に検証し、本当に妥当な指摘かどうかを判断します。 妥当な指摘に対しては修正コードを実装し、テスト・リント・型チェックで確認します。 不適切な指摘に対しては、技術的な理由を明記して反論を記録します。 修正結果をコミットし、PR/MRにコメントで報告するまでを自動実行します。 コードレビュー指摘の対応が多い開発者 レビュー指摘に対して「なぜそこまで修正が必要か」を技術的に判断したい人 レビュー指摘の対応状況を自動追跡したい開発チーム
チケット情報からAIが日本語コミットメッセージを自動生成
by NagasakaH
ブランチ名から自動でチケットIDを抽出し、GitHub・GitLab・Jira・Redmineなどから票情報を取得します。 ステージされた変更内容を確認して、チケット情報と組み合わせた適切な日本語コミットメッセージを自動生成します。 生成したメッセージでそのままコミットを実行し、チケットへの参照情報(refs #ID)も自動付与します。 MCPが利用できない場合でも、ブランチ名から推測された情報でコミットメッセージを生成して処理を継続できます。 毎日何度もコミットメッセージを書く開発者 チケット情報を含めた統一されたコミットメッセージの作成を自動化したいチーム 日本語でのコミットメッセージ品質を保ちながら、作成時間を短縮したい人
調査結果から実装設計書を自動生成
by NagasakaH
要件・調査結果・設計制約から、実装に必要な詳細設計書を一括生成できます。 API設計、データ構造、処理フロー、テスト計画などを体系的に設計し、ドキュメント化します。 既存設計がある場合は、レビュー指摘を反映した更新・再設計に対応します。 リスク軽減策を含めた設計を実施し、実装品質を高めます。 シーケンス図(修正前後の対比)やテスト戦略との対応表など、実装チームが理解しやすい形式で出力します。 開発リーダー・アーキテクトが、要件から実装設計書を効率よく作成したい 開発チームが、調査完了後の次ステップとして設計ドキュメントが必要 設計レビュー後の修正内容を素早く反映したい 技術仕様書を標準化したテンプレートで生成したい
GitLab APIを自動操作してワークフローを効率化
by NagasakaH
GitLabのプロジェクト、グループ、ブランチ、マージリクエスト、パイプラインなどをPythonスクリプトで自動操作できます。 ユーザー管理、アクセストークン、CI/CDパイプライン、デプロイメント、パッケージレジストリなど多岐にわたるGitLab機能を制御します。 REST API(v4)を標準ライブラリのみで実行でき、環境変数やローカル設定ファイルで認証情報を管理できます。 GitLabの複雑な操作・複数ステップの処理を自動化し、手作業を削減します。 DevOpsエンジニアが、GitLabのリポジトリ管理やパイプライン操作を自動化したい 開発チームが、マージリクエストやイシューの一括処理を実施したい CI/CDパイプラインやデプロイメント処理を自動スクリプトで制御したい GitLab上の複数プロジェクトを統一的に管理・運用したい
GitHubイシューからセットアップYAMLを自動生成
by NagasakaH
GitHubのイシュー(チケット)の内容を自動解析し、プロジェクトセットアップ用のYAML設定ファイルを生成できます。 イシューのタイトル・本文・ラベルから、タスク概要、目的、機能要件、受け入れ条件、対象リポジトリなどを自動抽出します。 イシースのセクション構造(## 概要、## 目的など)を自動認識し、階層化された設定ファイルにマッピングします。 必須情報の検証やフォールバック機能により、抽出漏れを警告として表示し、手動補完をサポートします。 プロジェクトマネージャーが、GitHubイシューから開発タスクの初期セットアップを素早く準備したい 開発チームが、チケット情報の重複入力を避け、YAMLスケルトンを自動生成したい 要件管理を効率化し、イシューから正式な設定ドキュメントに変換したい 新規開発タスク開始時のセットアップ時間を短縮したい
設計内容を多角的にチェックし品質を検証
by NagasakaH
詳細設計ドキュメントが要件・受入基準に正しく対応しているか、要件カバレッジを検証します。 アーキテクチャ・技術選定の妥当性、実装可能性、テスト計画の網羅性など7つの観点から体系的にレビューします。 リスク・懸念事項を洗い出し、テスト環境の準備状況を確認して、設計段階での問題を早期発見します。 Critical・Major・Minor の重大度を付けて指摘をドキュメント化し、設計品質の改善をサポートします。 レビューラウンドを管理し、修正後の再レビューで指摘が解決されたかを追跡できます。 設計レビュアーが、体系的かつ客観的な観点で設計の品質を検証したい 開発チームが、実装前に設計上の問題を徹底的に排除したい プロジェクト管理者が、要件に対する設計の妥当性を証跡として記録したい 設計の欠陥が実装段階で大きな手戻りになるのを防ぎたい
セッションログから実行履歴と操作内容を自動分析
by NagasakaH
Copilot CLIのセッションイベントログ(JSONL形式)を自動で特定し、解析できます。 ツール呼び出し履歴、サブエージェントの実行状況、スキル発動履歴などを自動抽出できます。 ツール呼び出し回数、実行結果の成功/失敗、各ツールの実行順序などを統計的に集計できます。 現在のセッションだけでなく、過去の特定セッションを指定して詳細に分析することも可能です。 イベント型別のフィルタリングにより、関心のある操作だけを抽出できます。 AIエージェントの動作検証や性能分析を行いたい開発者 セッション内でのツール呼び出しパターンを可視化して、エージェント最適化を検討したい デバッグ時に、スキル実行やサブエージェント動作の詳細なログを素早く確認したい セッション全体の実行履歴をレポートとして出力し、動作確認・監査に利用したい
タスク開始時にスキルを自動検索・活用
by NagasakaH
会話を始める際に、利用可能なすべてのスキル(設計、実装、デバッグなど)を自動的に確認し、タスクに合ったものを選択できます。 スキルの一覧と使い分けフローを参照して、最適なアプローチを判断できます。 Claudeコード環境やGitHub Copilotなど、異なるツール環境でスキルを正しく呼び出せます。 「これくらい簡単」と判断して後から失敗するのを防ぎ、最初からスキルチェックを必ず実行できます。 プロジェクト固有のワークフロー(issue → brainstorming → design → implement → verification)に沿った流れを確認できます。 AIアシスタントと一緒に開発・執筆・企画を進める全員(タスク開始時の必須プロセス) チーム内でAIツールの使い方を統一したい技術リーダー スキルや手法が豊富で「どれを使うべき?」と迷いやすいプロジェクト
バグを根本原因から修正できる
by NagasakaH
テスト失敗やエラーが発生した時に、原因を推測で修正するのではなく、根本原因を必ず特定してから対応できます。 エラーメッセージの精読、症状の再現、最近の変更確認などの調査フェーズを段階的に進められます。 修正を試して失敗する無駄な繰り返しを避け、パターン分析と仮説検証を通じて正確に修正できます。 本番バグ、ビルド失敗、パフォーマンス問題など、様々なトラブルに同じ体系的なアプローチを適用できます。 3回以上失敗したときのアーキテクチャレビューなど、一歩引いた視点で問題を再評価できます。 バグ修正に時間がかかり、修正を繰り返してしまう開発者 テスト失敗の原因を正確に把握してから修正したいチーム 本番環境のトラブルシューティングを効率的に進めたい現場
Terraformコマンド実行・AWSドキュメント検索・セキュリティスキャンをAIから直接操作
by NagasakaH
AIから直接 terraform plan・terraform apply などのコマンドを実行でき、インフラ構成の変更を対話的に進められます。 Terragrunt の run-all コマンドで、複数のAWSアカウント・複数リージョンにまたがる大規模なインフラ変更を一括実行・管理できます。 AWSプロバイダのリソース・データソースのドキュメントをAIが自動検索し、正確なリソース定義をスピーディに生成できます。 Checkov(セキュリティスキャンツール)をIaC(Infrastructure as Code)に対して実行し、セキュリティリスク・コンプライアンス違反を事前に検出できます。 Terraformでインフラをコード化しており、変更・検証のプロセスを高速化したいエンジニア マルチアカウント・マルチリージョンのAWS環境を安全に管理したい運用チーム インフラのセキュリティリスクを自動検出し、本番導入前に問題を潰したい人 Terraformドキュメントを毎回調べるのに時間がかかっており、効率化したいIaC開発者
テスト失敗を見てから実装コードを書ける
by NagasakaH
実装コードを書く前に、テストを先に書く「テストファースト」な開発を実践できます。 RED(テスト失敗)→ GREEN(テスト成功)→ REFACTOR(コード改善)の3ステップを段階的に実行し、品質の高い実装が保証されます。 テストが正しく失敗することを確認してから最小限のコードを書くため、無駄なコード追加やバグの混入を防げます。 新機能実装やバグ修正のたびに、テストで保護されたコードベースを保つことができます。 テスト前にコード変更がないか、良いテストの条件(最小限・明確・意図表示)を満たしているかを自動チェックできます。 品質第一で開発を進めたいエンジニア・チーム バグが少ないコードを実装するため、テスト駆動開発を導入したい現場 リファクタリング時に既存機能の破壊を防ぎたい保守チーム
完了主張の前に検証コマンドで証拠を確認
by NagasakaH
テスト通過、バグ修正、ビルド成功などを主張する前に、検証コマンドを実行して出力を確認できます。 IDENTIFY(必要なコマンド特定)→ RUN(実行)→ READ(出力確認)→ VERIFY(検証)→ CLAIM(証拠付き主張)の5ステップで、曖昧な報告を排除できます。 「~のはず」「おそらく」といった推測ではなく、実際の検証結果とコマンド出力を証拠として示せます。 テスト、リンター、ビルド、修正成功など、様々な完了主張に対応した検証テンプレートを活用できます。 コミット前やPR作成前に問題を検出でき、レビュー時の修正指摘を減らして開発速度を上げられます。 本当に完了したのか確実に確認してからコミット・PRを出したい慎重なエンジニア チーム内の品質基準を高め、「完了したはず」の失敗を減らしたい技術リーダー マージ前の問題検出でレビュー効率を上げたい開発チーム
品質基準に従うスキル定義書を自動生成
by NagasakaH
スキルファイル(SKILL.md)の正しい構造をガイドしながら、YAMLフロントマター・セクション構成・命名規則に従った定義書を効率よく作成・編集できる スキルの概要・使用タイミング・プロセス・関連スキルなどの必須セクションをテンプレートベースで整備し、品質ばらつきを防ぐ シナリオテスト(想定する使用場面)を実施して、スキルが正しく発動・動作するか検証できる 既存スキルの改善時に、チェックリスト形式で漏れをチェックし、品質を維持したまま更新できる AIエージェントに新しいスキル(指示セット)を追加・更新する開発チーム スキル定義の統一感や品質を担保したいプロジェクト管理者 スキルの正しい発動条件やプロセスを明確に文書化したいドキュメント担当者