Εργαλεία που χρησιμοποιώ σε παραγωγή — όχι εργαλεία με τα οποία έχω συνεργασία
Κάθε τεχνολογία σε αυτή τη λίστα έχει αναπτυχθεί σε σύστημα παραγωγής. Είμαι ανεξάρτητος από πάροχο σκόπιμα — το σωστό εργαλείο εξαρτάται από τη δική σας χρήση, τα δεδομένα σας και τον προϋπολογισμό σας. Καμία συμφωνία συνεργασίας δεν επηρεάζει τις συστάσεις μου.
Θεμελιώδη μοντέλα για συλλογιστική, παραγωγή κειμένου και πολυτροπικές εργασίες
Αναγνωρισμένα στον κλάδο διαπιστευτήρια που αποδεικνύουν εξειδίκευση
Scrum.org
Product ownership and value maximization in Scrum
Εκδόθηκε 2019
Scrum Alliance
Agile facilitation and Scrum framework mastery
Εκδόθηκε 2018
Scaled Agile
Scaled Agile Framework for enterprise transformation
Εκδόθηκε 2021
Product School
Building and managing AI-powered products
Εκδόθηκε 2023
DeepLearning.AI
Neural networks, CNNs, RNNs, and transformers
Εκδόθηκε 2022
Καμία συνεργασία με πάροχο δεν επηρεάζει τις συστάσεις μου. Επιλέγω το μοντέλο που ταιριάζει στις απαιτήσεις σας για latency, κόστος και ακρίβεια.
Κάθε εργαλείο εδώ έχει αναπτυχθεί σε σύστημα που διαχειρίζεται πραγματική κίνηση. Εργαλεία δοκιμασμένα μόνο σε εργαστήριο δεν μπαίνουν σε αυτή τη λίστα.
Τα περισσότερα AI έργα ξοδεύουν 3-5x παραπάνω σε υποδομή. Εγώ κάνω σωστή διαστασιολόγηση από την αρχή — μικρότερα μοντέλα, εξυπνότερη cache, αποδοτικό inference.
Τα AI μοντέλα αλλάζουν κάθε τρίμηνο. Οι αρχιτεκτονικές μου αφαιρούν το επίπεδο μοντέλου ώστε να μπορείτε να αλλάξετε πάροχο χωρίς να ξαναγράψετε την εφαρμογή σας.
Κλείστε μια κλήση 30 λεπτών. Θα αξιολογήσω τις απαιτήσεις σας και θα συστήσω τον σωστό συνδυασμό μοντέλων, υποδομής και frameworks — με εκτιμήσεις κόστους.
Κάθε εργαλείο που αξιολογούμε, αναπτύσσουμε ή συνιστούμε — με ειλικρινείς αξιολογήσεις.
Anthropic
Most capable Claude model — complex reasoning, long-context analysis, agentic tasks.
Επίσημη τεκμηρίωση →Anthropic
Best balance of intelligence and speed for production workloads.
Επίσημη τεκμηρίωση →Anthropic
Fastest and lowest-cost Claude model for high-volume tasks.
Επίσημη τεκμηρίωση →Anthropic
AI-native CLI for agentic software engineering — reads, writes, and runs code autonomously.
Επίσημη τεκμηρίωση →Anthropic
Open protocol connecting AI assistants to external tools, data sources, and services.
Επίσημη τεκμηρίωση →Anthropic
Build, orchestrate, and deploy multi-agent systems powered by Claude.
Επίσημη τεκμηρίωση →Mistral AI
Top-tier reasoning model with 128K context — Mistral's flagship for enterprise tasks.
Επίσημη τεκμηρίωση →Mistral AI
Cost-efficient multimodal model — text and image understanding.
Επίσημη τεκμηρίωση →Mistral AI
Apache 2.0 multilingual model — EU-sovereign deployments, 128K context.
Επίσημη τεκμηρίωση →Mistral AI
Code generation specialist — 80+ languages, fill-in-the-middle, 32K context.
Επίσημη τεκμηρίωση →Mistral AI
Frontier vision-language model — document analysis, chart reading, 128K context.
Επίσημη τεκμηρίωση →Mistral AI
High-quality text embeddings for RAG and semantic search.
Επίσημη τεκμηρίωση →Mistral AI
Train and own frontier AI model weights outright — no API rental, full data sovereignty.
Επίσημη τεκμηρίωση →Mistral AI
Enterprise AI assistant — SSO, audit logs, EU data residency, web search, document upload.
Επίσημη τεκμηρίωση →Meta
Meta's flagship open-weight model — Apache 2.0, matches GPT-4 on many benchmarks at fraction of cost.
Επίσημη τεκμηρίωση →Meta
Lightweight Llama models for mobile, edge, and on-device inference.
Επίσημη τεκμηρίωση →Meta
Vision-language Llama models — image understanding, document analysis.
Επίσημη τεκμηρίωση →Google's open-weight family — Apache 2.0, strong reasoning, multilingual, edge-to-server range.
Επίσημη τεκμηρίωση →Microsoft
MIT-licensed reasoning specialist — outperforms models 3× larger on math and coding.
Επίσημη τεκμηρίωση →Microsoft
Edge-optimised reasoning model — 3.8B parameters, strong instruction following on constrained hardware.
Επίσημη τεκμηρίωση →Alibaba
Alibaba's Apache 2.0 multilingual family — exceptional Chinese/English, strong math, full size range.
Επίσημη τεκμηρίωση →Alibaba
State-of-the-art open-source code generation — rivals GPT-4o on coding benchmarks.
Επίσημη τεκμηρίωση →DeepSeek
MIT-licensed reasoning specialist with chain-of-thought — matches o1 on math and science tasks.
Επίσημη τεκμηρίωση →DeepSeek
671B MoE open-weight general model — top open-source benchmark scores across all categories.
Επίσημη τεκμηρίωση →TII UAE
TII's Apache 2.0 family — strong multilingual performance, designed for EU/MENA sovereign deployments.
Επίσημη τεκμηρίωση →Hugging Face
Ultra-compact models for on-device and browser inference — Apache 2.0, efficiency benchmark.
Επίσημη τεκμηρίωση →Ollama
One-command local model serving — runs Llama, Mistral, Gemma and 100+ models on any hardware.
Επίσημη τεκμηρίωση →vLLM Project
High-throughput production LLM serving — PagedAttention, continuous batching, OpenAI-compatible.
Επίσημη τεκμηρίωση →Hugging Face
Hugging Face's production inference server — tensor parallelism, quantization, streaming.
Επίσημη τεκμηρίωση →ggerganov
CPU/GPU inference in C++ — GGUF format, runs on Apple Silicon, NVIDIA, AMD, CPU-only.
Επίσημη τεκμηρίωση →LM Studio
Desktop GUI for discovering, downloading, and running local LLMs — OpenAI-compatible server.
Επίσημη τεκμηρίωση →Hugging Face
Run Transformers in the browser and Node.js — ONNX-based, no server required.
Επίσημη τεκμηρίωση →Microsoft
Cross-platform optimised inference — CPU, GPU, mobile, browser, WASM support.
Επίσημη τεκμηρίωση →BerriAI
Universal LLM API proxy — call 100+ models with OpenAI format, load balancing, fallbacks.
Επίσημη τεκμηρίωση →Unsloth AI
2× faster fine-tuning, 70% less VRAM — LoRA and QLoRA for Llama, Mistral, Qwen, Gemma.
Επίσημη τεκμηρίωση →OpenAccess AI Collective
Production fine-tuning framework — YAML config, LoRA/QLoRA/full, multi-GPU, Flash Attention.
Επίσημη τεκμηρίωση →hiyouga
Fine-tune 100+ LLMs with a web UI or CLI — SFT, DPO, GRPO, LoRA, QLoRA.
Επίσημη τεκμηρίωση →PyTorch
PyTorch-native fine-tuning library — recipe-based, minimal dependencies, full control.
Επίσημη τεκμηρίωση →Hugging Face
Parameter-Efficient Fine-Tuning — LoRA, QLoRA, IA³, AdaLoRA, Prefix Tuning.
Επίσημη τεκμηρίωση →Hugging Face
Transformer Reinforcement Learning — SFT, DPO, GRPO, PPO, ORPO for alignment training.
Επίσημη τεκμηρίωση →Microsoft
ZeRO optimizer for large model training — 10× throughput, trillion-parameter scale.
Επίσημη τεκμηρίωση →Hugging Face
One-line multi-GPU and TPU training — no code changes, FSDP and DeepSpeed integration.
Επίσημη τεκμηρίωση →NVIDIA
NVIDIA's large-scale pre-training framework — tensor/pipeline/sequence parallelism.
Επίσημη τεκμηρίωση →Hugging Face
900K+ models, 100K+ datasets, and Spaces — the de facto standard for AI artifact sharing.
Επίσημη τεκμηρίωση →Hugging Face
Core model library — load, run, and fine-tune any model in PyTorch, TensorFlow, or JAX.
Επίσημη τεκμηρίωση →Hugging Face
100K+ datasets with streaming, arrow-based loading, and one-line preprocessing.
Επίσημη τεκμηρίωση →Hugging Face
Managed dedicated or serverless model deployment — auto-scaling, private endpoints.
Επίσημη τεκμηρίωση →Hugging Face
No-code fine-tuning for LLMs and other models — SFT, DPO, classification, NER.
Επίσημη τεκμηρίωση →Hugging Face
Host Gradio and Streamlit ML demos — free tier available, GPU-enabled options.
Επίσημη τεκμηρίωση →Hugging Face
Standardised metrics library — BLEU, ROUGE, accuracy, F1, and 100+ custom metrics.
Επίσημη τεκμηρίωση →Hugging Face
Programmatic Hub access — upload models, create repos, manage tokens, search.
Επίσημη τεκμηρίωση →LangChain
LLM application framework — chains, agents, RAG, tool use, memory.
Επίσημη τεκμηρίωση →LlamaIndex
Data framework for LLM apps — ingestion, indexing, querying over any data source.
Επίσημη τεκμηρίωση →deepset
Production NLP pipeline framework — RAG, document search, question answering.
Επίσημη τεκμηρίωση →Stanford NLP
Declarative LLM programming — optimise prompts and weights automatically.
Επίσημη τεκμηρίωση →Jason Liu
Structured output extraction — Pydantic schemas from any LLM, with validation and retries.
Επίσημη τεκμηρίωση →Microsoft
Enterprise LLM orchestration for .NET, Python, Java — plugins, planners, memory.
Επίσημη τεκμηρίωση →CrewAI
Role-based multi-agent orchestration — agents collaborate with defined roles and goals.
Επίσημη τεκμηρίωση →Microsoft
Microsoft's multi-agent conversation framework — async agents, human-in-the-loop.
Επίσημη τεκμηρίωση →Hugging Face
Minimal agentic framework — code-first agents that write and execute Python, 1000-line core.
Επίσημη τεκμηρίωση →Qdrant
Rust-based vector search — on-prem friendly, filterable, sparse+dense hybrid search.
Επίσημη τεκμηρίωση →Weaviate
GraphQL API vector database — multi-tenancy, hybrid search, generative search.
Επίσημη τεκμηρίωση →Chroma
Local-first open-source vector database — Python-native, zero infrastructure required.
Επίσημη τεκμηρίωση →Zilliz
Distributed vector search for billion-scale data — HNSW, IVF, GPU acceleration.
Επίσημη τεκμηρίωση →PostgreSQL
Vector similarity search extension for PostgreSQL — no separate infrastructure needed.
Επίσημη τεκμηρίωση →Pinecone
Managed cloud vector database — serverless tier, namespaces, metadata filtering.
Επίσημη τεκμηρίωση →Pollen Robotics
Open-source humanoid robot for research and industry — Apache 2.0, ROS2, Python SDK.
Επίσημη τεκμηρίωση →Open Robotics
Robot Operating System 2 — real-time communication, sensor fusion, navigation stack.
Επίσημη τεκμηρίωση →Hugging Face
Open-source robot learning — imitation learning, reinforcement learning, pre-trained policies.
Επίσημη τεκμηρίωση →NVIDIA
Robot simulation and deployment platform — synthetic data generation, physics simulation.
Επίσημη τεκμηρίωση →OpenCV
Computer vision library — 2500+ algorithms, real-time image processing, widely deployed.
Επίσημη τεκμηρίωση →Meta
Segment Anything Model 2 — real-time video and image segmentation, zero-shot.
Επίσημη τεκμηρίωση →Ultralytics
Real-time object detection — fastest production-grade detector, ONNX/CoreML export.
Επίσημη τεκμηρίωση →Amazon
Managed foundation model APIs on AWS — Claude, Llama, Mistral, Titan, Stable Diffusion.
Επίσημη τεκμηρίωση →Microsoft
Microsoft's enterprise AI platform — model catalog, fine-tuning, responsible AI tools.
Επίσημη τεκμηρίωση →GCP's unified AI/ML platform — Gemini, model garden, AutoML, feature store.
Επίσημη τεκμηρίωση →Cloudflare
Run AI models at the edge globally — Workers AI, 100+ models, serverless inference.
Επίσημη τεκμηρίωση →LangChain
LLM observability and tracing — log runs, compare prompts, regression testing.
Επίσημη τεκμηρίωση →Weights & Biases
ML experiment tracking, visualisation, and hyperparameter sweeps — industry standard.
Επίσημη τεκμηρίωση →Databricks
ML lifecycle management — experiment tracking, model registry, deployment.
Επίσημη τεκμηρίωση →CNCF / Grafana Labs
Inference metrics collection and dashboards — latency, throughput, error rates.
Επίσημη τεκμηρίωση →Arize AI
LLM evaluation and monitoring — hallucination detection, embeddings visualisation, drift.
Επίσημη τεκμηρίωση →Exploding Gradients
RAG evaluation framework — faithfulness, answer relevancy, context precision metrics.
Επίσημη τεκμηρίωση →