Dies und weitere spannende Nachrichten aus der Welt der KI jetzt lesen im KI-Update von Kai Spriestersbach
AFAIK

Es ist schon wieder soweit. Neben der Breaking-News Mitte der Woche hat sich schon wieder so viel Neues in der KI-Welt getan, dass ich mich kurzerhand dazu entschlossen habe, einen regulären Newsletter zu verfassen.

Den Anfang machen die neuen KI-Kurznachrichten, also Dinge, die spannend genug sind, um sie zu berichten, aber nicht genug Stoff für einen eigenen Beitrag wären.

KI-Kurznachrichten

OpenAI präsentiert SearchGPT: Hoppla, schon wieder daneben!

Hi hi hi, da hat sich wieder jemand mit falschen Fakten in einer KI-Präsentation blamiert!

OpenAI wollte mit ihrem neuen SearchGPT protzen und - ups - prompt lieferte die KI falsche Festivaldaten. Statt der tatsächlichen Termine des „Appalachian Summer Festivals“ gab SearchGPT die Zeiten an, in denen die Tickethotline Pause macht.

Na, das nenne ich mal eine echte Sommerpause! 🏖️😅

Tja, liebe OpenAI, vielleicht solltet ihr eure KI erstmal zum Ferienjob an eine Festivalhotline schicken, bevor sie die nächste Präsentation versemmelt.

Aber keine Sorge, ihr seid in guter Gesellschaft, Google hat sich hier auch nicht gerade mit Ruhm bekleckert...

Offensichtlich ist es leichter, eine KI zu entwickeln, als ihre Fehler zu beheben. Wer hätte gedacht, dass Faktencheck so 2010 ist? 🕵️‍♀️🤖

Die gescheiterte SearchGPT-Demo von OpenAI zeigt, wie schwer es ist, KI-Bullshit zu erkennen

AlphaProof: Ein formaler Ansatz für mathematische Beweise per KI

Dieses neue System kombiniert formale Sprachen mit Reinforcement Learning, um mathematische Beweise zu generieren und zu verifizieren.

Bei der Internationalen Mathematik-Olympiade konnte AlphaProof bereits Aufgaben lösen, die nur wenige menschliche Teilnehmer:innen bewältigten.

Extrem spannend zu lesen, wie dieses System konstruiert ist!

Metas Llama 3.1 ist da

Meta hat eine neue Reihe von Grundlagenmodellen veröffentlicht, darunter eine beeindruckende Version mit 405 Milliarden Parametern.

Die Modelle zeichnen sich durch Vielseitigkeit in Bereichen wie Mehrsprachigkeit, Programmieren und logisches Denken aus.

Besonders interessant: Meta gibt Einblicke in die Zusammensetzung ihrer Trainingsdaten!

Mistral Large 2

Nur einen Tag nach Llama 3.1 präsentierte Mistral ihr neuestes Modell. Es überzeugt durch ein hervorragendes Verhältnis von Leistung zu Kosten und ist dabei mehr als dreimal kleiner als Llama 3.1. Ein Schwerpunkt lag auf der Verbesserung der Denkfähigkeiten und der Reduzierung von „Halluzinationen“.

🚨 Achtung Unternehmen: Der EU AI Act kommt - sind Sie vorbereitet? 🤖📊

In nur 6 Monaten tritt der EU AI Act in Kraft, und er bringt eine oft übersehene Pflicht mit sich: KI-Kompetenz für Mitarbeiter!

👉 Ab Januar 2025 müssen ALLE Unternehmen, die KI nutzen (ja, auch ChatGPT zählt!), sicherstellen, dass ihr Personal über "ausreichende KI-Kompetenz" verfügt.

Was bedeutet das für Sie? 

✅ Schulungsbedarf ermitteln 

✅ Maßgeschneiderte KI-Trainingsprogramme entwickeln 

✅ Kontinuierliche Weiterbildung sicherstellen

Die gute Nachricht: KI-Kompetenz ist nicht nur eine Pflicht, sondern eine Chance!

🚀 Gut geschulte Mitarbeiter können das volle Potenzial von KI ausschöpfen und Ihr Unternehmen an die Spitze der digitalen Transformation führen.

Lassen Sie uns gemeinsam die Zukunft gestalten!

Kontaktieren Sie mich für maßgeschneiderte KI-Kompetenz-Schulungen.

Fast alle Entwickler:innen nutzen KI-Tools zur Codegenerierung trotz Verboten

Eine aktuelle Studie des Cloud-Security-Unternehmens Checkmarx zeigt, dass 99 Prozent der Entwicklungsteams KI-Tools zur Codegenerierung einsetzen, obwohl 15 Prozent der Unternehmen deren Einsatz explizit untersagen. Diese Ergebnisse verdeutlichen die Diskrepanz zwischen offiziellen Richtlinien und der tatsächlichen Praxis in den Entwicklungsabteilungen.

Die Studie zeigt, dass Unternehmen Schwierigkeiten haben, den Einsatz von generativer KI zu steuern und zu regulieren. Nur 29 Prozent der Unternehmen haben bisher eine Form von Governance für den Einsatz generativer KI-Tools etabliert. In 70 Prozent der Fälle fehlt eine zentrale Strategie, wodurch Kaufentscheidungen oft ad hoc von einzelnen Abteilungen getroffen werden.

Gleichzeitig wächst die Besorgnis über mögliche Sicherheitsrisiken: 80 Prozent der Befragten äußern sich besorgt über Sicherheitsbedrohungen durch die Nutzung von KI durch Entwickler:innen. Besonders beunruhigend sind für 60 Prozent der Befragten potenzielle KI-Probleme wie Halluzinationen.

 

 

Trotz der Bedenken besteht Interesse an den Potenzialen generativer KI. 47 Prozent der Befragten sind offen dafür, KI unbeaufsichtigte Änderungen am Code vornehmen zu lassen. Nur 6 Prozent vertrauen KI jedoch nicht bei Sicherheitsmaßnahmen in der eigenen Softwareumgebung.

 

 

Ähnliche Ergebnisse lieferte kürzlich der Work Trend Index von Microsoft, den wir hier auch schon besprochen haben. Auch hier zeigte sich, dass viele Mitarbeitende ihre eigenen KI-Tools verwenden, wenn ihnen keine zur Verfügung gestellt werden, und häufig nicht darüber sprechen. Dies blockiert eine systematische Implementierung von generativer KI in Unternehmensprozesse.

OpenAI plant Entwicklung eines eigenen KI-Chips

Nicht besonders überraschend, um ehrlich zu sein. Google hat schon länger seine TPUs, Apple steigt gerade groß in die Entwicklung von KI-Chips für seine Datencenter ein und Elons KI-Chips von Tesla kommen nun auch X.ai zu Gute.

Doch nun ist es offiziell, dass eben auch OpenAI eigene KI-Chips entwickeln will und dafür Partner sucht. Das wird seinem größten Lieferanten, Nvidia, wahrscheinlich nicht gefallen.

Sprachmodelle stoßen bei großen Dokumenten an ihre Grenzen

Große Sprachmodelle (LLMs) wie GPT-4 oder Claude 3 werben mit der Fähigkeit, riesige Textmengen zu verarbeiten. Doch wie gut verstehen und nutzen sie diese Inhalte wirklich? Ein neuer Benchmark namens NeedleBench liefert ernüchternde Erkenntnisse.

NeedleBench: Ein umfassender Test für Kontextverständnis

Forscher des Shanghai AI Laboratory und der Tsinghua University haben NeedleBench entwickelt, um die Kontext-Fähigkeiten von LLMs gründlich zu überprüfen. Der zweisprachige (Englisch und Chinesisch) Benchmark testet:

  • Informationsextraktion und logisches Schlussfolgern in langen Texten
  • Verschiedene Textlängen (von 4.000 bis über 1 Million Wörter)
  • Unterschiedliche Tiefen der Textanalyse

Ernüchternde Ergebnisse

Die Studie zeigt eine klare Diskrepanz zwischen Werbeaussagen und tatsächlichen Fähigkeiten:

  • Selbst führende Modelle wie GPT-4 und Claude 3 Opus haben Schwierigkeiten, komplexe Informationen aus langen Texten zu extrahieren und logisch zu verknüpfen.
  • Die Leistung nimmt mit zunehmender Datenmenge und Aufgabenkomplexität rapide ab.
  • Viele Modelle stoßen bereits bei wenigen tausend Token an ihre Grenzen – weit entfernt von den beworbenen Millionen verarbeitbarer Token.

Fazit der Forscher

"Unsere Ergebnisse deuten darauf hin, dass aktuelle LLMs für praktische Anwendungen mit langen Kontexten noch erheblich verbessert werden müssen."

Interessante Nebenergebnisse

  • Open-Source-Modelle schneiden oft besser ab, wenn der Quellinhalt vor dem Prompt steht.
  • Chain-of-Thought-Prompting verbessert die Ergebnisse.
  • Größere Modelle lösen die Aufgaben generell besser.

Die vollständigen Benchmark-Ergebnisse, Skripte und Datensätze sind auf GitHub verfügbar.

Das Rennen um kleine, effiziente Modelle läuft bereits

Andrej Karpathy, ehemaliger KI-Forscher bei OpenAI und Tesla, erwartet, dass KI-Sprachmodelle in Zukunft kleiner und effizienter statt immer größer werden. Dazu müssen die Trainingsdaten so optimiert werden, dass auch kleine Modelle zuverlässig „denken“ können.

Die großen KI-Modelle seien dennoch notwendig: Sie hätten die Fähigkeit, automatisiert zu helfen, Trainingsdaten zu bewerten und in ideale synthetische Formate umzuwandeln. So könne jedes Modell die Daten für das nächste verbessern, bis der „perfekte Trainingsdatensatz“ erreicht sei.

Auch OpenAI-Chef Sam Altman sieht die Datenqualität als entscheidenden Erfolgsfaktor für das weitere KI-Training. Die Kernfrage sei, wie KI-Systeme aus weniger Daten mehr lernen können, so Altman.

Das ist endlich mal eine gute Einschätzung.

Ich glaube auch, dass die großen LLMs nicht mehr spürbar „intelligenter“ werden, es aber noch sehr viel Potential gibt, diese effizienter und robuster gegenüber Halluzinationen zu machen.

Daneben bekommen wir einen ganzen Zoo aus spezialisierteren Modellen, die wiederum Architektonisch für bestimmte Aufgaben besser geeignet sind, als ein reiner Transformer-Autodecoder.

Quelle: the decoder

OpenAI präsentiert neue Methode zur Reduzierung von KI-Halluzinationen

OpenAI hat eine innovative Methode entwickelt, um die Verständlichkeit und Überprüfbarkeit von KI-generierten Texten zu verbessern. Diese neue Herangehensweise, bekannt als Prover-Verifier-Spiele, könnte das Vertrauen in KI-Systeme stärken und deren Einsatz in kritischen Bereichen erleichtern.

Bei den Prover-Verifier-Spielen treten zwei KI-Modelle gegeneinander an: Ein „beweisendes“ Modell (Prover) generiert Lösungen für ein Problem, während ein „prüfendes“ Modell (Verifier) diese auf ihre Korrektheit überprüft. Ziel ist es, das Beweismodell so zu trainieren, dass es nachvollziehbare und korrekte Lösungen produziert.

In der Studie nutzten die Forscher von OpenAI ein GPT-4-Modell als Beweiser und ein schwächeres GPT-4-Modell als Verifizierer. Der Beweiser wurde abwechselnd in einer „hilfreichen“ und einer „hinterhältigen“ Rolle trainiert. In der hilfreichen Rolle wurde das Modell belohnt, wenn es korrekte Lösungen lieferte, die vom Verifizierer gut bewertet wurden. In der hinterhältigen Rolle wurde es belohnt, wenn es falsche Lösungen erzeugte, die den Verifizierer täuschten.

Das Ergebnis der Studie zeigte, dass der Verifizierer durch das abwechselnde Training lernte, auch subtile Fehler zu erkennen. Dies führte dazu, dass der Beweiser gezwungen war, immer genauere Lösungen zu produzieren. Die Prover-Verifier-Spiele erreichten so einen guten Kompromiss zwischen Leistung und Verständlichkeit.

Ein besonderer Vorteil der Methode ist, dass sie weniger auf menschliche Anleitung angewiesen ist. Dies ist relevant für die Entwicklung superintelligenter KI-Systeme, die sich zuverlässig an menschliche Werte anpassen müssen.

Hilft oder schadet uns der EU AI Act? Fest steht: Er kommt!

In den sozialen Netzwerken, allen voran auf LinkedIn, entfacht immer stärker eine Diskussion um den EU AI Act, insbesondere die Gegner argumentieren gerade damit, dass diese Überregulierung der EU dazu führe, Innovation zu verhindern, Unternehmen auszubremsen und für Startups eine unüberwindbare Hürde darstellt.

Von den jüngsten Ankündigungen Apples und Metas, seine neuen KI-Modelle nicht nach Europa zu bringen, fühlt sich diese Fraktion in ihrer Meinung bestätigt.

Ich sehe das Ganze etwas differenzierter und würde sogar behaupten, dass es, wenn Apple und Meta sich nicht an die Regeln des AI Acts halten wollen, (die könnten es zweifelsohne!) dann ist das sogar eine gute Nachricht für die Europäischen Unternehmen, die mit konformen Lösungen weniger Konkurrenz aus den Staaten ausgesetzt sind!

Wir brauchen faire Regeln und dazu gehört auch, dass geklärt ist, wann wer und wozu Trainingsdaten erheben und verwenden darf.

Mistral AI zeigt doch, dass man auch aus der EU heraus wettbewerbsfähige Foundation Models trainieren und sowohl in Open Source, als auch kommerziellen Varianten bereitstellen kann.

Auch wenn sich Aleph Alpha so langsam als überbewerteter „Cash Grab“ entpuppt, der nun lieber Dienstleistung a la Accenture verkauft, anstatt in Grundlagenforschung und Foundation Modelle mit dem Fokus auf europäische Sprachen zu investieren.

Auf der anderen Seite: OpenAI und Anthropic verbrennen gerade Milliarden für KI-Entwicklung und -Betrieb. Wer garantiert denn, dass sich diese massiven VC-Gelder jemals auszahlen?

EU AI Act / KI-VO: Neue gesetzliche Anforderungen an KI-Kompetenzen – Sind Sie vorbereitet?
Der Countdown läuft: In sechs Monaten tritt der EU AI Act in Kraft! In weniger als einem halben Jahr wird der EU AI Act die Art und Weise, wie Unternehmen mit künstlicher Intelligenz umgehen, grundlegend verändern. Eine der weitreichendsten, aber oft übersehenen Anforderungen betrifft die KI-Kompetenz der Mitarbeiter. Sind Sie und Ihr Unternehmen darauf vorbereitet? Die neue Pflicht: KI-Kompetenz als gesetzliche Vorgabe Ab Januar 2025 tritt Artikel 4 des EU AI Acts in Kraft. Dieser…
Weiterlesen ...
 
Knowledge Graphen in der Praxis: Der Google-Ansatz
Trotz der Herausforderungen und potenziellen Fallstricke, die mit der Erstellung und Nutzung von Knowledge Graphen verbunden sind und die ich in meinem letzten Beitrag beschrieben habe, setzen große Technologieunternehmen wie Google weiterhin auf diese Technologie, insbesondere im Bereich der Websuche. Dies wirft die Frage auf: Warum nutzt Google noch immer Knowledge Graphen, wenn die Erstellung mit Hilfe von unzuverlässigen LLMs weder besonders effektiv noch effizient erscheint? Insbesondere SEOs stellt sich diese Frage, denn Google hat…
Weiterlesen ...
 
Warum Knowledge Graphen das Problem der Unverlässigkeit von KI-Anwendungen oft nicht lösen
Generative künstliche Intelligenz gewinnt immer mehr Einfluss auf unser tägliches Leben und zieht ebenso Stück für Stück auch in Suchmaschinen und andere Information Retrieval Systeme ein. Dabei stehen wir jedoch vor einer grundlegenden Herausforderung: Wie können wir sicherstellen, dass KI-Systeme zuverlässige und faktisch korrekte Informationen liefern? Eine Möglichkeit das sogenannte Grounding über das Einbeziehen von Informationen aus einer Websuche über Googles eigene Grounding API zu realisieren, habe ich in meinem letzen Beitrag beschrieben. Eine weitere…
Weiterlesen ...
 
Googles KI-Revolution: Wie Chatbots faktenbasiert werden und die Suche transformieren
Als jemand, der seit Jahren in der KI-Forschung und SEO-Branche tätig ist, bin ich immer auf der Suche nach bahnbrechenden Entwicklungen. Und lasst mich Euch sagen: Google hat gerade einen Volltreffer gelandet! Stellt Euch vor, Ihr fragt Euren KI-Assistenten nach dem Wetter und bekommt eine Vorhersage vom letzten Jahr. Oder Ihr erkundigt Euch nach dem aktuellen Oscar-Gewinner und hört von einer Verleihung, die schon ewig her ist. Klingt frustrierend, oder? Genau dieses Problem an Large…
Weiterlesen ...
 
Risikomanagement von Halluzinationen generativer KI
Ian P. McCarthy, Timothy R. Hannigan und André Spicer haben sich in einem sehr guten Artikel im Harvard Business Review dem Thema Halluzinationen von Chatbots und großen Sprachmodellen angenommen und das Ganze mal aus Sicht des Risikomanagements von Unternehmen bewertet. Sie verwenden für ungenaue und unwahre Inhalte von Chatbots, die von Menschen unkritisch für Aufgaben verwendet werden den Begriff „Botshit“ und machen zu Recht darauf aufmerksam, dass dieser erhebliche Risiken für Unternehmen darstellen kann. Dazu…
Weiterlesen ...
 
Podcasts mit KI: Podcastle ermöglicht zeitsparendes Podcasting mit Künstlicher Intelligenz!
Als leidenschaftlicher Podcaster spiele ich immer wieder mit dem Gedanken, einen neuen Podcast aufzunehmen. Mein Lieblingsthema ist natürlich Künstliche Intelligenz. Doch bislang hat mich der immense Zeitaufwand abgeschreckt. Aufnahme, Schnitt, Audiobearbeitung, Upload, Metadatenpflege, Hosting und Shownotes erforderten den Einsatz zahlreicher Tools und kosteten mich unzählige Stunden. Doch ich habe vor Kurzem Podcastle entdeckt und sehe zum ersten Mal eine echte Chance, wieder selbst zu podcasten! Was ist Podcastle? Podcastle hat es sich zur Aufgabe gemacht,…
Weiterlesen ...
 
Generative KI in Unternehmen: Chancen, Herausforderungen und Best Practices
In der sich rasant entwickelnden Welt der künstlichen Intelligenz stehen Unternehmen vor der Herausforderung, generative KI-Technologien effektiv in ihre Geschäftsprozesse zu integrieren. Als KI-Experte möchte ich einen Einblick in die Schlüsselfaktoren für eine erfolgreiche Integration geben, mögliche Fallstricke aufzeigen und die Rolle der Mitarbeiter in diesem Transformationsprozess beleuchten. Erfolgreiche Integration von generativer KI Die Integration von generativer KI in Unternehmen erfordert zunächst eine solide Grundlage. Sauber aufgesetzte Geschäftsprozesse bilden das Fundament für eine erfolgreiche Implementierung.…
Weiterlesen ...
 
facebook  linkedin  youtube 
AFAIK
Inhaber Kai Spriestersbach
Galgenäcker 7, 97903 Collenberg
Impressum: afaik.de/impressum

Falls Du Dich fragst, wieso Du diesen Newsletter erhältst:

Aus SEARCH ONE wurde AFAIK.

Du hast Dich in der Vergangenheit für meinem Newsletter angemeldet, damals wahrscheinlich noch unter search-one.de. Mittlerweile heißt mein Blog jedoch AFAIK, weshalb auch der Absender meiner Newsletter nun von [email protected] auf [email protected] umgestellt wurde.

Kai Spriestersbach