本番で使っているツール — パートナーシップがあるツールではなく
ここに掲載されているすべてのテクノロジーは本番システムにデプロイ済みです。意図的にベンダー非依存です — 適切なツールはユースケース、データ、予算次第です。パートナーシップ契約が推奨に影響することはありません。
専門性を証明する業界認定資格
Scrum.org
Product ownership and value maximization in Scrum
発行 2019
Scrum Alliance
Agile facilitation and Scrum framework mastery
発行 2018
Scaled Agile
Scaled Agile Framework for enterprise transformation
発行 2021
Product School
Building and managing AI-powered products
発行 2023
DeepLearning.AI
Neural networks, CNNs, RNNs, and transformers
発行 2022
ベンダーパートナーシップが推奨に影響することはありません。レイテンシ、コスト、精度の要件に合うモデルを選びます。
ここにあるすべてのツールは実トラフィックを処理するシステムにデプロイ済みです。ラボでテストしただけのツールはこのリストに入りません。
ほとんどのAIプロジェクトはインフラに3-5倍の過剰支出をしています。最初から適切なサイジング — 小さいモデル、賢いキャッシュ、効率的な推論。
AIモデルは四半期ごとに変わります。私のアーキテクチャはモデルレイヤーを抽象化し、アプリケーションを書き直さずにプロバイダーを切り替えられるようにします。
30分のコールを予約してください。要件を評価し、モデル、インフラ、フレームワークの適切な組み合わせを — コスト見積もり付きで推奨します。
私たちが評価、デプロイ、または推奨するすべてのツール — 率直な評価付き。
Anthropic
Most capable Claude model — complex reasoning, long-context analysis, agentic tasks.
公式ドキュメント →Anthropic
Best balance of intelligence and speed for production workloads.
公式ドキュメント →Anthropic
Fastest and lowest-cost Claude model for high-volume tasks.
公式ドキュメント →Anthropic
AI-native CLI for agentic software engineering — reads, writes, and runs code autonomously.
公式ドキュメント →Anthropic
Open protocol connecting AI assistants to external tools, data sources, and services.
公式ドキュメント →Anthropic
Build, orchestrate, and deploy multi-agent systems powered by Claude.
公式ドキュメント →Mistral AI
Top-tier reasoning model with 128K context — Mistral's flagship for enterprise tasks.
公式ドキュメント →Mistral AI
Cost-efficient multimodal model — text and image understanding.
公式ドキュメント →Mistral AI
Apache 2.0 multilingual model — EU-sovereign deployments, 128K context.
公式ドキュメント →Mistral AI
Code generation specialist — 80+ languages, fill-in-the-middle, 32K context.
公式ドキュメント →Mistral AI
Frontier vision-language model — document analysis, chart reading, 128K context.
公式ドキュメント →Mistral AI
Train and own frontier AI model weights outright — no API rental, full data sovereignty.
公式ドキュメント →Mistral AI
Enterprise AI assistant — SSO, audit logs, EU data residency, web search, document upload.
公式ドキュメント →Meta
Meta's flagship open-weight model — Apache 2.0, matches GPT-4 on many benchmarks at fraction of cost.
公式ドキュメント →Meta
Lightweight Llama models for mobile, edge, and on-device inference.
公式ドキュメント →Meta
Vision-language Llama models — image understanding, document analysis.
公式ドキュメント →Google's open-weight family — Apache 2.0, strong reasoning, multilingual, edge-to-server range.
公式ドキュメント →Microsoft
MIT-licensed reasoning specialist — outperforms models 3× larger on math and coding.
公式ドキュメント →Microsoft
Edge-optimised reasoning model — 3.8B parameters, strong instruction following on constrained hardware.
公式ドキュメント →Alibaba
Alibaba's Apache 2.0 multilingual family — exceptional Chinese/English, strong math, full size range.
公式ドキュメント →Alibaba
State-of-the-art open-source code generation — rivals GPT-4o on coding benchmarks.
公式ドキュメント →DeepSeek
MIT-licensed reasoning specialist with chain-of-thought — matches o1 on math and science tasks.
公式ドキュメント →DeepSeek
671B MoE open-weight general model — top open-source benchmark scores across all categories.
公式ドキュメント →TII UAE
TII's Apache 2.0 family — strong multilingual performance, designed for EU/MENA sovereign deployments.
公式ドキュメント →Hugging Face
Ultra-compact models for on-device and browser inference — Apache 2.0, efficiency benchmark.
公式ドキュメント →Ollama
One-command local model serving — runs Llama, Mistral, Gemma and 100+ models on any hardware.
公式ドキュメント →vLLM Project
High-throughput production LLM serving — PagedAttention, continuous batching, OpenAI-compatible.
公式ドキュメント →Hugging Face
Hugging Face's production inference server — tensor parallelism, quantization, streaming.
公式ドキュメント →ggerganov
CPU/GPU inference in C++ — GGUF format, runs on Apple Silicon, NVIDIA, AMD, CPU-only.
公式ドキュメント →LM Studio
Desktop GUI for discovering, downloading, and running local LLMs — OpenAI-compatible server.
公式ドキュメント →Hugging Face
Run Transformers in the browser and Node.js — ONNX-based, no server required.
公式ドキュメント →Microsoft
Cross-platform optimised inference — CPU, GPU, mobile, browser, WASM support.
公式ドキュメント →BerriAI
Universal LLM API proxy — call 100+ models with OpenAI format, load balancing, fallbacks.
公式ドキュメント →Unsloth AI
2× faster fine-tuning, 70% less VRAM — LoRA and QLoRA for Llama, Mistral, Qwen, Gemma.
公式ドキュメント →OpenAccess AI Collective
Production fine-tuning framework — YAML config, LoRA/QLoRA/full, multi-GPU, Flash Attention.
公式ドキュメント →hiyouga
Fine-tune 100+ LLMs with a web UI or CLI — SFT, DPO, GRPO, LoRA, QLoRA.
公式ドキュメント →PyTorch
PyTorch-native fine-tuning library — recipe-based, minimal dependencies, full control.
公式ドキュメント →Hugging Face
Parameter-Efficient Fine-Tuning — LoRA, QLoRA, IA³, AdaLoRA, Prefix Tuning.
公式ドキュメント →Hugging Face
Transformer Reinforcement Learning — SFT, DPO, GRPO, PPO, ORPO for alignment training.
公式ドキュメント →Microsoft
ZeRO optimizer for large model training — 10× throughput, trillion-parameter scale.
公式ドキュメント →Hugging Face
One-line multi-GPU and TPU training — no code changes, FSDP and DeepSpeed integration.
公式ドキュメント →NVIDIA
NVIDIA's large-scale pre-training framework — tensor/pipeline/sequence parallelism.
公式ドキュメント →Hugging Face
900K+ models, 100K+ datasets, and Spaces — the de facto standard for AI artifact sharing.
公式ドキュメント →Hugging Face
Core model library — load, run, and fine-tune any model in PyTorch, TensorFlow, or JAX.
公式ドキュメント →Hugging Face
100K+ datasets with streaming, arrow-based loading, and one-line preprocessing.
公式ドキュメント →Hugging Face
Managed dedicated or serverless model deployment — auto-scaling, private endpoints.
公式ドキュメント →Hugging Face
No-code fine-tuning for LLMs and other models — SFT, DPO, classification, NER.
公式ドキュメント →Hugging Face
Host Gradio and Streamlit ML demos — free tier available, GPU-enabled options.
公式ドキュメント →Hugging Face
Standardised metrics library — BLEU, ROUGE, accuracy, F1, and 100+ custom metrics.
公式ドキュメント →Hugging Face
Programmatic Hub access — upload models, create repos, manage tokens, search.
公式ドキュメント →LangChain
LLM application framework — chains, agents, RAG, tool use, memory.
公式ドキュメント →LlamaIndex
Data framework for LLM apps — ingestion, indexing, querying over any data source.
公式ドキュメント →deepset
Production NLP pipeline framework — RAG, document search, question answering.
公式ドキュメント →Stanford NLP
Declarative LLM programming — optimise prompts and weights automatically.
公式ドキュメント →Jason Liu
Structured output extraction — Pydantic schemas from any LLM, with validation and retries.
公式ドキュメント →Microsoft
Enterprise LLM orchestration for .NET, Python, Java — plugins, planners, memory.
公式ドキュメント →CrewAI
Role-based multi-agent orchestration — agents collaborate with defined roles and goals.
公式ドキュメント →Microsoft
Microsoft's multi-agent conversation framework — async agents, human-in-the-loop.
公式ドキュメント →Hugging Face
Minimal agentic framework — code-first agents that write and execute Python, 1000-line core.
公式ドキュメント →Qdrant
Rust-based vector search — on-prem friendly, filterable, sparse+dense hybrid search.
公式ドキュメント →Weaviate
GraphQL API vector database — multi-tenancy, hybrid search, generative search.
公式ドキュメント →Chroma
Local-first open-source vector database — Python-native, zero infrastructure required.
公式ドキュメント →Zilliz
Distributed vector search for billion-scale data — HNSW, IVF, GPU acceleration.
公式ドキュメント →PostgreSQL
Vector similarity search extension for PostgreSQL — no separate infrastructure needed.
公式ドキュメント →Pinecone
Managed cloud vector database — serverless tier, namespaces, metadata filtering.
公式ドキュメント →Pollen Robotics
Open-source humanoid robot for research and industry — Apache 2.0, ROS2, Python SDK.
公式ドキュメント →Open Robotics
Robot Operating System 2 — real-time communication, sensor fusion, navigation stack.
公式ドキュメント →Hugging Face
Open-source robot learning — imitation learning, reinforcement learning, pre-trained policies.
公式ドキュメント →NVIDIA
Robot simulation and deployment platform — synthetic data generation, physics simulation.
公式ドキュメント →OpenCV
Computer vision library — 2500+ algorithms, real-time image processing, widely deployed.
公式ドキュメント →Meta
Segment Anything Model 2 — real-time video and image segmentation, zero-shot.
公式ドキュメント →Ultralytics
Real-time object detection — fastest production-grade detector, ONNX/CoreML export.
公式ドキュメント →Amazon
Managed foundation model APIs on AWS — Claude, Llama, Mistral, Titan, Stable Diffusion.
公式ドキュメント →Microsoft
Microsoft's enterprise AI platform — model catalog, fine-tuning, responsible AI tools.
公式ドキュメント →GCP's unified AI/ML platform — Gemini, model garden, AutoML, feature store.
公式ドキュメント →Cloudflare
Run AI models at the edge globally — Workers AI, 100+ models, serverless inference.
公式ドキュメント →LangChain
LLM observability and tracing — log runs, compare prompts, regression testing.
公式ドキュメント →Weights & Biases
ML experiment tracking, visualisation, and hyperparameter sweeps — industry standard.
公式ドキュメント →Databricks
ML lifecycle management — experiment tracking, model registry, deployment.
公式ドキュメント →CNCF / Grafana Labs
Inference metrics collection and dashboards — latency, throughput, error rates.
公式ドキュメント →Arize AI
LLM evaluation and monitoring — hallucination detection, embeddings visualisation, drift.
公式ドキュメント →Exploding Gradients
RAG evaluation framework — faithfulness, answer relevancy, context precision metrics.
公式ドキュメント →