v3.1.0Core Feature

KI & Machine Learning mit VelinScript

VelinScript ist eine der ersten Programmiersprachen, die "AI-Native" entwickelt wurde. Der Zugriff auf große Sprachmodelle (LLMs), Vektor-Datenbanken und ML-Workflows ist nahtlos integriert.

Einführung in die AI-Module

VelinScript abstrahiert die Komplexität moderner AI-Backends. Keine manuellen HTTP-Requests oder Tensor-Verwaltung nötig.

llm

High-Level Schnittstelle zu GPT-4, Claude, Llama.

embedding

Werkzeuge für Vektorraum-Operationen & RAG.

intelligence

Low-Level ML-Training & Modell-Management.

{
  "ai": {
    "provider": "openai",
    "model": "gpt-4-turbo",
    "embeddingModel": "text-embedding-3-small"
  }
}

Kompakte Syntax

v3.0.1+

90%+ Token-Ersparnis durch native AI-Keywords und automatische Prompt-Optimierung.

// Kompakte LLM-Syntax
let result     = await @llm.analyze(text);
let summary    = await @llm.summarize(long_text);
let sentiment  = await @llm.sentiment(comment);
let translated = await @llm.translate(text, "en");
let extracted  = await @llm.extract(text, "email addresses");
let evaluation = await @llm.evaluate(review_text);

Semantische Suche (RAG)

Nutzen Sie das embedding-Modul für semantisches Verständnis statt einfacher Keyword-Suche.

use embedding

let vec1 = embedding.embed("Der Hund bellt.");
let vec2 = embedding.embed("Ein Canis lupus familiaris macht Geräusche.");

// Distanz berechnen (Cosine Similarity)
log.info(embedding.similarity(vec1, vec2)); // ~0.85 (Hohe Ähnlichkeit)

Lokale Inferenz

VelinScript kann Modelle lokal auf CPU/GPU ausführen (GGUF/ONNX), ideal für Datenschutz.

use intelligence

// Lädt ein quantisiertes Llama-3 Modell
let model = ModelLoader.load("./models/llama-3-8b-q4.gguf", {
    gpuLayers: 32,
    contextSize: 4096
});

let response = model.predict("Warum ist der Himmel blau?");

Best Practices

Caching nutzen

Verwenden Sie @Cache für LLM-Aufrufe, um Kosten und Latenz zu sparen.

Graceful Degradation

Bauen Sie Fallbacks ein, falls Cloud-APIs nicht erreichbar sind.

Security First

Vermeiden Sie Prompt Injection durch strikte Validierung der Inputs.

Async Workflow

Nutzen Sie asynchrone Aufrufe für UI-relevante Generierungen.