Tutorial 16~25 MinutenMittel
KI Basics - Einführung in die AI-Module
Velisch ist eine der ersten "AI-Native" Programmiersprachen. Zugriff auf LLMs, Vektor-Datenbanken und ML-Workflows ist genauso einfach wie das Lesen einer Datei.
Was du lernen wirst
- Die drei AI-Module: llm, embedding, intelligence
- AI-Konfiguration in velin.config.json
- Erste Textgenerierung mit dem llm-Modul
1
Die AI-Module im Überblick
Velisch abstrahiert die Komplexität moderner AI-Backends. Sie müssen sich nicht mit HTTP-Requests an OpenAI oder HuggingFace herumschlagen oder PyTorch-Tensoren manuell verwalten.
llm
High-Level Schnittstelle zu Sprachmodellen (GPT-4, Claude, Llama)
embedding
Werkzeuge für Vektorraum-Operationen und semantische Suche
intelligence
Low-Level ML-Training und Modell-Management
2
Konfiguration
Die AI-Einstellungen werden in der velin.config.json definiert:
{
"ai": {
"provider": "openai",
"model": "gpt-4-turbo",
"embeddingModel": "text-embedding-3-small"
}
}Provider-Auswahl
Unterstützte Provider:
"openai", "anthropic", "local", "azure"3
Erste Textgenerierung
Die einfachste Form der Interaktion ist die Generierung von Text basierend auf einem Prompt:
use llm
fn generateProductDescription(productName: string, features: List<string>): string {
let prompt = `
Erstelle eine attraktive Produktbeschreibung für "${productName}".
Features: ${features.join(", ")}.
Tonfall: Professionell aber begeisternd.
`;
let description = llm.generate(prompt, {
temperature: 0.7,
maxTokens: 500
});
return description;
}
@POST("/api/products/description")
fn createDescription(name: string, features: List<string>): string {
return generateProductDescription(name, features);
}4
Text-Klassifizierung (Zero-Shot)
Klassifizieren Sie Texte ohne eigene Trainingsdaten:
use llm
fn analyzeSupportTicket(ticketText: string) {
// Sentiment: "positive", "negative", "neutral"
let sentiment = llm.sentiment(ticketText);
if (sentiment == "negative") {
escalateToManager();
}
// Klassifizierung in Kategorien
let category = llm.classify(ticketText, [
"Rechnungsproblem",
"Technischer Bug",
"Feature Request",
"Sonstiges"
]);
routeTicket(category);
}Zusammenfassung
Was du gelernt hast:
- llm, embedding, intelligence Module
- AI-Konfiguration in velin.config.json
- Textgenerierung mit llm.generate()
- Zero-Shot Klassifizierung
Nächste Schritte:
- LLM Integration (Chat, Datenextraktion)
- ML Training mit intelligence
- Semantische Suche mit Embeddings