Inhaltsverzeichnisliste

Auf 16. September 2025, unsere Teams veranstalteten eine interne Konferenz mit dem Titel „Eine Reise durch generative KI“. Das Ziel war entmystifizieren Sie generative künstliche Intelligenz, erläutern die Kernkonzepte und teilen reale Anwendungen.

Geleitet von Roxane Jouseau und Hichame Haichour KI-Experten (von Novencia), die Sitzung brachte Teams und Enthusiasten zusammen, um Themen wie Große Sprachmodelle (LLMs), ihre Architektur, wie sie geschult werden und wie sie auf echte Geschäftsprobleme angewendet werden können.

Die Grundlagen generativer KI verstehen

Die drei Stufen der künstlichen Intelligenz

- ANI (Künstliche enge Intelligenz): Die KI konzentrierte sich auf eine einzige, enge Aufgabe.

- AGI (Künstliche Allgemeine Intelligenz): KI mit menschenähnlicher Denkfähigkeit.

- ASI (Künstliche Superintelligenz): KI, die menschliche Fähigkeiten übertrifft (immer noch theoretisch).

Wie funktionieren LLMs?

Große Sprachmodelle (LLMs) basieren auf:

- Maschinelles Lernen (beaufsichtigt und selbstbeaufsichtigt),

- Einbettungen um Sprache in Vektoren darzustellen,

- Die Transformator-Architektur, basierend auf dem Aufmerksamkeitsmechanismus um Kontext und Bedeutung zu erfassen.

Ausbildung eines LLM: Eine kolossale Herausforderung

Ein Modell bauen wie GPT-4 oder Zwillinge erfordert:

- Tausende von Hochleistungs-GPUs,

- Enorme Rechenzeit (Wochen oder sogar Monate),

- Enorme finanzielle Investitionen, oft im zweistelligen Millionenbereich.

Beispiel: GPT-5 und Grok 3 heben die Herausforderungen der Skalierbarkeit, der Kosten und des Energieverbrauchs hervor.

Bewertung eines LLM: Auf dem Weg zu mehr Zuverlässigkeit

Bewertungsmethoden

- Benchmarking mit Referenzdatensätzen,

- LLM als Richter, wobei ein Modell ein anderes bewertet.

Warum Ehrlichkeit wichtig ist

Neue Forschungsergebnisse zeigen, wie wichtig es ist, dass Modelle dazu in der Lage sind Unsicherheit eingestehen wenn sie keine Antwort wissen.

Einige LLM-Evaluatoren jetzt Menschen in Konsistenz und Kohärenz übertreffen, was sie zu leistungsstarken Tools für die Qualitätssicherung macht.

Anwendungsfall aus der Praxis: Automatisieren der Generierung von Konfigurationsdateien

Während der Sitzung haben wir ein konkretes Beispiel untersucht: Automatisieren der JSON-Dateigenerierung für ein Tool zur Datenqualität.

Zwei Ansätze wurden getestet:

  1. Prompte Augmentation (RAG): Anreicherung der Eingabeaufforderungen mit kontextbezogenen Dokumenten,

  2. Betreute Feinabstimmung: Anpassung eines Open-Source-Modells für einen bestimmten Geschäftsanwendungsfall.

Ergebnis: schnellere Konfiguration und verbessert Qualität der Daten.

Was kommt als Nächstes für Generative KI?

Zu den kommenden Trends, die es zu beobachten gilt, gehören:

- Multimodale LLMs (Text, Bild, Audio, Video),

- Autonome KI-Agenten in der Lage, Aufgaben zu begründen und auszuführen,

- Optimierung und Quantisierung um die Inferenzkosten zu senken,

Neue Ansätze für KI-Sicherheit und Zuverlässigkeit.

Fazit

Diese Konferenz half unseren Teams, ein besseres Verständnis von Grundlagen der generativen KI und wie sie sich in reale Anwendungsfälle umsetzen lassen. Durch Kombinieren Theorie mit Praxis, wir wollen die KI-Kultur in allen Teams verbreiten und neue Kollaborationen anregen.

Teilen:
Teilen

Was ist Generative KI?

Generative KI ist ein Zweig der künstlichen Intelligenz, der neue Inhalte erstellen wie Text, Bilder, Audio oder Code, indem Sie Muster aus großen Datensätzen lernen.

Was sind LLMs (Large Language Models)?

LLMs sind fortschrittliche Modelle für maschinelles Lernen, die auf riesigen Textdatensätzen trainiert werden. Sie verwenden Transformator-Architektur um den Kontext zu verstehen und eine menschenähnliche Sprache zu erzeugen.

Wie werden LLMs bewertet?

LLMs werden getestet durch Benchmarking (feste Datensätze) und LLM als Richter, bei dem ein KI-Modell die Ergebnisse eines anderen auf Qualität und Genauigkeit hin bewertet.

Was ist die Zukunft der generativen KI?

Die Zukunft liegt in multimodale Modelle, autonome KI-Agenten, und energieeffiziente Optimierungstechniken die KI skalierbarer und zuverlässiger machen.

Unsere Experten sind nur einen Anruf entfernt!

Teilen Sie uns Ihre Wünsche und Vorstellungen mit - Gemeinsam finden wir die beste Lösung für Ihre Produktentwicklung.
Kontaktieren Sie uns

Lesen Sie mehr Neuigkeiten

5/3/26

Einblick in die Rolle eines Datenschutzbeauftragten bei Technology & Strategy

Entdecken Sie die Rolle eines Datenschutzbeauftragten bei Technology & Strategy: DSGVO, Schutz personenbezogener Daten, Aufgaben des Datenschutzbeauftragten, Projekte und zukünftige Herausforderungen.

MEHR LESEN
18/2/26

Zum ersten Mal Manager werden: Einblicke von Nachwuchsmanagern bei T&S

Was bedeutet es, zum ersten Mal Manager zu werden? Zwei Nachwuchsmanager bei T&S teilen ihre Erfahrungen und wichtige Erkenntnisse.

MEHR LESEN
13/3/26

Cloud-DevOps, Gitops und Devsecops: Automatisieren ohne die Kontrolle zu verlieren

Cloud-DevOps, Gitops und Devsecops: Skalieren Sie die Automatisierung und behalten Sie gleichzeitig die Verwaltung, Sicherheit und Betriebskontrolle bei.

MEHR LESEN