Tutorial 16~25 MinutenMittel

KI Basics - Einführung in die AI-Module

Velisch ist eine der ersten "AI-Native" Programmiersprachen. Zugriff auf LLMs, Vektor-Datenbanken und ML-Workflows ist genauso einfach wie das Lesen einer Datei.

Was du lernen wirst

  • Die drei AI-Module: llm, embedding, intelligence
  • AI-Konfiguration in velin.config.json
  • Erste Textgenerierung mit dem llm-Modul
1

Die AI-Module im Überblick

Velisch abstrahiert die Komplexität moderner AI-Backends. Sie müssen sich nicht mit HTTP-Requests an OpenAI oder HuggingFace herumschlagen oder PyTorch-Tensoren manuell verwalten.

llm

High-Level Schnittstelle zu Sprachmodellen (GPT-4, Claude, Llama)

embedding

Werkzeuge für Vektorraum-Operationen und semantische Suche

intelligence

Low-Level ML-Training und Modell-Management

2

Konfiguration

Die AI-Einstellungen werden in der velin.config.json definiert:

{
  "ai": {
    "provider": "openai",
    "model": "gpt-4-turbo",
    "embeddingModel": "text-embedding-3-small"
  }
}
3

Erste Textgenerierung

Die einfachste Form der Interaktion ist die Generierung von Text basierend auf einem Prompt:

use llm

fn generateProductDescription(productName: string, features: List<string>): string {
    let prompt = `
        Erstelle eine attraktive Produktbeschreibung für "${productName}".
        Features: ${features.join(", ")}.
        Tonfall: Professionell aber begeisternd.
    `;
    
    let description = llm.generate(prompt, { 
        temperature: 0.7,
        maxTokens: 500 
    });
    
    return description;
}

@POST("/api/products/description")
fn createDescription(name: string, features: List<string>): string {
    return generateProductDescription(name, features);
}
4

Text-Klassifizierung (Zero-Shot)

Klassifizieren Sie Texte ohne eigene Trainingsdaten:

use llm

fn analyzeSupportTicket(ticketText: string) {
    // Sentiment: "positive", "negative", "neutral"
    let sentiment = llm.sentiment(ticketText);
    
    if (sentiment == "negative") {
        escalateToManager();
    }
    
    // Klassifizierung in Kategorien
    let category = llm.classify(ticketText, [
        "Rechnungsproblem", 
        "Technischer Bug", 
        "Feature Request", 
        "Sonstiges"
    ]);
    
    routeTicket(category);
}

Zusammenfassung

Was du gelernt hast:

  • llm, embedding, intelligence Module
  • AI-Konfiguration in velin.config.json
  • Textgenerierung mit llm.generate()
  • Zero-Shot Klassifizierung

Nächste Schritte:

  • LLM Integration (Chat, Datenextraktion)
  • ML Training mit intelligence
  • Semantische Suche mit Embeddings