Auf 16. September 2025, unsere Teams veranstalteten eine interne Konferenz mit dem Titel „Eine Reise durch generative KI“. Das Ziel war entmystifizieren Sie generative künstliche Intelligenz, erläutern die Kernkonzepte und teilen reale Anwendungen.
Geleitet von Roxane Jouseau und Hichame Haichour KI-Experten (von Novencia), die Sitzung brachte Teams und Enthusiasten zusammen, um Themen wie Große Sprachmodelle (LLMs), ihre Architektur, wie sie geschult werden und wie sie auf echte Geschäftsprobleme angewendet werden können.
- ANI (Künstliche enge Intelligenz): Die KI konzentrierte sich auf eine einzige, enge Aufgabe.
- AGI (Künstliche Allgemeine Intelligenz): KI mit menschenähnlicher Denkfähigkeit.
- ASI (Künstliche Superintelligenz): KI, die menschliche Fähigkeiten übertrifft (immer noch theoretisch).
Große Sprachmodelle (LLMs) basieren auf:
- Maschinelles Lernen (beaufsichtigt und selbstbeaufsichtigt),
- Einbettungen um Sprache in Vektoren darzustellen,
- Die Transformator-Architektur, basierend auf dem Aufmerksamkeitsmechanismus um Kontext und Bedeutung zu erfassen.
Ein Modell bauen wie GPT-4 oder Zwillinge erfordert:
- Tausende von Hochleistungs-GPUs,
- Enorme Rechenzeit (Wochen oder sogar Monate),
- Enorme finanzielle Investitionen, oft im zweistelligen Millionenbereich.
Beispiel: GPT-5 und Grok 3 heben die Herausforderungen der Skalierbarkeit, der Kosten und des Energieverbrauchs hervor.
Neue Forschungsergebnisse zeigen, wie wichtig es ist, dass Modelle dazu in der Lage sind Unsicherheit eingestehen wenn sie keine Antwort wissen.
Einige LLM-Evaluatoren jetzt Menschen in Konsistenz und Kohärenz übertreffen, was sie zu leistungsstarken Tools für die Qualitätssicherung macht.
Während der Sitzung haben wir ein konkretes Beispiel untersucht: Automatisieren der JSON-Dateigenerierung für ein Tool zur Datenqualität.
Zwei Ansätze wurden getestet:
Ergebnis: schnellere Konfiguration und verbessert Qualität der Daten.
Zu den kommenden Trends, die es zu beobachten gilt, gehören:
- Multimodale LLMs (Text, Bild, Audio, Video),
- Autonome KI-Agenten in der Lage, Aufgaben zu begründen und auszuführen,
- Optimierung und Quantisierung um die Inferenzkosten zu senken,
Neue Ansätze für KI-Sicherheit und Zuverlässigkeit.
Diese Konferenz half unseren Teams, ein besseres Verständnis von Grundlagen der generativen KI und wie sie sich in reale Anwendungsfälle umsetzen lassen. Durch Kombinieren Theorie mit Praxis, wir wollen die KI-Kultur in allen Teams verbreiten und neue Kollaborationen anregen.

Generative KI ist ein Zweig der künstlichen Intelligenz, der neue Inhalte erstellen wie Text, Bilder, Audio oder Code, indem Sie Muster aus großen Datensätzen lernen.
LLMs sind fortschrittliche Modelle für maschinelles Lernen, die auf riesigen Textdatensätzen trainiert werden. Sie verwenden Transformator-Architektur um den Kontext zu verstehen und eine menschenähnliche Sprache zu erzeugen.
LLMs werden getestet durch Benchmarking (feste Datensätze) und LLM als Richter, bei dem ein KI-Modell die Ergebnisse eines anderen auf Qualität und Genauigkeit hin bewertet.
Die Zukunft liegt in multimodale Modelle, autonome KI-Agenten, und energieeffiziente Optimierungstechniken die KI skalierbarer und zuverlässiger machen.


Während seiner CIFRE-Promotion an iCUBE bei Englab und T&S erforscht Jülian Salazar kognitive Ergonomie und Unaufmerksamkeitsblindheit, um adaptive, menschenzentrierte intelligente Systeme zu entwickeln, die Industrie 5.0 vorantreiben.
MEHR LESEN
Erfahren Sie, wie autonome Robotik wichtige Sektoren mit realen Anwendungen verändert, die vom R&D Center of Englab (T&S) entwickelt wurden.
MEHR LESEN
Erkunden Sie die Grundlagen der generativen KI: LLM-Grundlagen, Schulung, Bewertung, reale Anwendungsfälle und Zukunftsperspektiven.
MEHR LESEN