Statische Analyse voor AI-Gegenereerde Code
Een doelgebouwde beveiligingsscanner die de kwetsbaarheden detecteert die AI-codeerassistenten introduceren. 210 regels verdeeld over vijf categorieen -- vibe code-patronen, agentbeveiliging, LLM-applicatierisico's, framework-kwetsbaarheden en cloud-misconfiguraties -- aangedreven door tree-sitter AST-analyse en optionele AI-gestuurde triage.
210 Beveiligingsregels
10 Talen
5 Regelcategorieen
SARIF Output
Het Probleem
Waarom AI-gegenereerde code een beveiligingsrisico vormt
AI-assistenten genereren code sneller dan mensen deze kunnen beoordelen. Vibe coding -- het accepteren van AI-suggesties met minimale controle -- is de nieuwe standaard.
AI optimaliseert voor werkende code, niet voor veilige code. Hetzelfde hardcoded geheim, dezelfde SQL-concatenatie, dezelfde permissieve CORS -- herhaald in duizenden projecten.
Semgrep, Snyk en CodeQL begrijpen geen prompt-templates, agent-tooldefinities of LLM-outputverwerking. Nieuwe aanvalsoppervlakken hebben nul dekking.
Autonome agents nemen real-world beslissingen met bestandssysteemtoegang, databaseschrijfacties en shellcommando's. Geen enkel bestaand hulpmiddel controleert hun toestemmingsgrenzen.
Regels
210 regels gericht op vijf AI-specifieke kwetsbaarheidsdomeinen
40 regels voor patronen die vaak worden gegenereerd door AI-codeerassistenten: hardcoded geheimen in prompts, SQL-injectie via concatenatie, gevaarlijke code-uitvoering, onveilige standaardinstellingen, ontbrekende authenticatie, path-traversal, onveilige deserialisatie en zwakke cryptografie.
30 regels voor autonome agentcode: te ruime tooldefinities, onbeperkte bestandssysteemtoegang, shellcommando-uitvoering vanuit gebruikersinvoer, ontbrekende auditlogging, geen bevestiging voor destructieve acties, onveilige inter-agent-communicatie en privilege-escalatievectoren.
40 regels voor productie-LLM-applicaties: ruwe gebruikersinvoer in systeemprompts, niet-gesanitiseerde HTML-weergave, door LLM gegenereerde SQL-uitvoering, blootgestelde API-sleutels, ontbrekende prompt-injectiedetectie, onveilige OAuth-flows, verouderd SDK-gebruik, niet-gevalideerde tool-outputs en risico's op exfiltratie van trainingsdata.
50 regels voor AI/ML-framework-misconfiguraties: onveilige LangChain chain-definities, FastAPI/Flask-beveiligingslacunes, onveilige Pydantic-validatieomzeiling, blootgestelde debug-endpoints, ontbrekende CORS-beleid, onveilige middleware-stacks en kwetsbare afhankelijkheidspatronen in populaire AI-frameworks.
50 regels voor cloud-implementatierisico's: te ruime IAM-rollen, hardcoded AWS/GCP/Azure-credentials, publiek blootgestelde opslagbuckets, ontbrekende versleuteling in rust, onveilige containerconfiguraties, onbeschermde Kubernetes-secrets en verkeerd geconfigureerde VPC-beveiligingsgroepen in AI-workload-implementaties.
Integreer Mistral AI of lokale Ollama-modellen om foutpositieven te verminderen, ernst te herprioriteren op basis van context en contextuele fix-suggesties te genereren. Activeer met een enkele --ai vlag — werkt met elk ondersteund model.
Realtime beveiligingsfeedback in uw editor via de Achilles AI LSP-server. Inline diagnostiek, code-acties en fix-suggesties terwijl u typt — werkt met VS Code, Neovim en elke LSP-compatibele editor.
Schrijf aangepaste regels in YAML -- geen Rust-kennis vereist. Definieer AST-knooppunttypen, regex-patronen, vooroudercontextbeperkingen en fix-suggesties. Genereer nieuwe regels met een enkel commando.
Native SARIF v2.1.0-uitvoer voor integratie met het GitHub Security-tabblad. Bevindingen verschijnen als inline PR-annotaties met ernst, fix-suggesties en referenties. Ondersteunt ook JSON- en tekstuitvoer.
Kant-en-klare GitHub Action voor automatisch scannen bij elke push en pull request. Ondersteunt ook GitLab CI, Bitbucket Pipelines en pre-commit hooks. Enkele binary -- geen runtime-afhankelijkheden.
Mogelijkheden
Wat Achilles AI levert
210
Ingebouwde beveiligingsregels
10
Ondersteunde talen
5
AI-specifieke categorieen
1
Enkele binary -- geen afhankelijkheden
5
Cross-platform builds
3
Uitvoerformaten
Technologiestack
Rust workspace (5 crates), tree-sitter, serde, regex, YAML-regelengine, .achilles-ai.yaml-configuratie
tree-sitter-javascript, tree-sitter-typescript, tree-sitter-python, tree-sitter-go, tree-sitter-java, tree-sitter-rust, tree-sitter-ruby, tree-sitter-php, tree-sitter-c-sharp, tree-sitter-swift
Mistral AI SDK, Ollama-client, configureerbare modelselectie, foutpositievenfiltering, herordening van ernst
clap, colored, serde_json, SARIF v2.1.0-uitvoer, Language Server Protocol
GitHub Actions (CI + cross-compile release), GitLab CI, Bitbucket Pipelines, pre-commit hooks
Linux (amd64/arm64), macOS (amd64/arm64), Windows (amd64), crates.io
Prijzen
Neem contact op met ons team om te ontdekken hoe Achilles AI uw AI-gegenereerde code op schaal kan beveiligen.
Hulp nodig bij het beveiligen van AI-gegenereerde code in productie? Onze adviesdiensten vullen Achilles AI aan.
70% van AI-pilots bereikt nooit productie. Ontvang het draaiboek van de 30% die wel levert.
Op elk moment uitschrijven. Nooit spam.