Ohne Cloud, ohne API-Key – Sprachmodelle mit Python lokal ausführen - Bits&Bytes-Vortrag
In vielen Forschungs- und Lehrkontexten sprechen gewichtige Gründe gegen die Nutzung kommerzieller KI-Cloud-Dienste: schützenswerte Forschungsdaten, personenbezogene Informationen, vertragliche Einschränkungen oder schlicht fehlende Budgets für API-Tokens. Der dieswöchige Bits&Bytes-Vortrag stellt Ollama als schlanke Laufzeitumgebung für lokale, offene Modelle (unter anderem Mistral, Llama usw.) vor und zeigt, wie deren OpenAI-kompatible Schnittstelle aus Python heraus angesprochen wird. An einem kompakten Beispiel wird außerdem die Berechnung von Text-Embeddings und deren Nutzung als Grundlage semantischer Suche demonstriert. Python-Grundkenntnisse sind hilfreich, aber keine Voraussetzung.
Start
23.04.2026
- 17:00
Ende
23.04.2026
- 18:00
Veranstaltungsort
TUBAF-RoboLab in der Burgstraße 36 - und parallel online via BBB: https://webroom.hrz.tu-chemnitz.de/gl/tho-97w-8gm-f3v
Veranstaltungssprache
Deutsch
Ringvorlesung/Vortragsreihe
Keine Anmeldung erforderlich