Das zweite KI-Update im Februar von Kai Spriestersbach |
| |
Seit dem letzten Newsletter Anfang Februar ist unglaublich viel passiert in der KI-Szene. Nach nicht einmal drei Wochen habe ich so viele spannende Informationen gesammelt, dass ich diesen Newsletter vorziehe.
Bei der Gelegenheit kann ich außerdem nochmal auf meine Keynote „Hosen Runter: Die ungeschminkte Wahrheit über generative KI-Tools“ auf der OMT Toolkonferenz am Donnerstag hinweisen. Die Teilnahme ist kostenlos!
Witzig zu beobachten fand ich in der letzten Woche, wie Groq viral ging, eine Tech-Demo eines sehr schnellen Chatbots auf Basis eines speziellen KI-Chips, die ich Euch hin im Newsletter bereits vor Monaten präsentiert hatte.
Und wisst ihr noch: Im letzten Newsletter fragte ich mich noch, wie stark Gemini Ultra 1.0 wohl sein würde!
Ursprünglich wollte einen ausführlichen Vergleich von Gemini Ultra mit ChatGPT PLUS/Team schreiben, aber eigentlich reicht diese Kurzfassung:
Ich habe bei allen Tasks in den letzten Tagen Gemini Advanced und ChatGPT mit den selben Inputs gefüttert und in KEINEM EINZIGEN FALL war Gemini besser!
Teilweise gab es krude Bugs aber viel zu oft bleibt Gemini vage und allgemein, während ChatGPT spezifisch und wirklich hilfreich antwortet.
Fazit: Ich werde das kostenlose Probe-Abo unter keinen Umständen verlängern und bleibe ChatGPT PLUS treu! |
| |
Neue Ära in der Videoproduktion: OpenAI enthüllt SORA AI! |
| |
Wahrscheinlich hast Du es bereits längst irgendwo in der Timeline oder den Nachrichten gesehen. Denn OpenAI setzt tatsächlich vollkommen neue Maßstäbe in Sachen Video KI mit der Vorstellung von Sora, einem revolutionären Modell, das die Erstellung von Videos durch einfache Textbeschreibungen ermöglicht.
Wer schonmal mühsam mit RunwayML versucht hat, photorealistische Videos zu generieren, die länger als zwei Sekunden dauern, versteht sofort, wieso diese Innovation das Potential bietet, die Grenzen des kreativen Ausdrucks zu verschieben.
Leider wissen wir noch nicht wirklich viel über die Technik dahinter, es sieht aus meiner Sicht jedoch nach der selben zugrundeliegenden Diffusor-Technik aus, wie bei Runway, nur eben um einige Größenordnungen komplexer.
Schaut man sich die geteilten Demos an, so scheint von fotorealistischen Szenen bis hin zu dynamischen Animationen alles Möglich. Sora verwandelt Texte in bis zu einminütige Videos, die die Kreativität auf ein neues Level heben.
Ich bin sehr gespannt, wieviel davon Marketing ist und was das Modell am Ende wirklich liefert!
Wenn die in den Demo-Videos gezeigten Prompts jedoch tatsächlich echt sind, versteht Sora Textanweisungen mit bemerkenswerter Präzision, erweckt Charaktere mit Tiefe und Emotion zum Leben und gestaltet komplexe Hintergründe.
Mit der Frage, ob Sora (wie von Open AI behauptet) ein Schritt in Richtung eines Weltmodells ist, habe ich mich in einem separaten Blogbeitrag auseinander gesetzt. |
| |
Auf dem Weg zu einem Weltmodell haben Forscher:innen von Google DeepMind gerade Genie vorgestellt, ein KI-System, das interaktive Videospiele aus einer Text- oder Bildaufforderung generieren kann. Das besondere daran: Das kann es ohne vorheriges Training in Spielmechanik, also alleine auf Basis der Beobachtung von Trainingsmaterial aus Spielen. |
| |
Erinnerungsfunktion für ChatGPT kommt! |
| |
ChatGPT bekommt eine neue Funktion, mit der es sich automatisch bestimmte Dinge über alle Chats hinweg merken kann. Die neue „Gedächtnis“-Funktion wird es ChatGPT ermöglichen, auf der Grundlage früherer Chats einen Kontext und eine Art Gedächtnis über deine Vorlieben aufzubauen und dir dann Antworten zu geben, die auf deine Vorlieben zugeschnitten sind.
Mit dieser Funktion können Nutzer:innen ChatGPT nun anweisen, sich bestimmte Anweisungen für die Zukunft zu merken. |
| |
Ein Wermutstropfen: OpenAI sagt, dass sie die Daten aus dem Gedächtnis zum Trainieren ihrer Modelle verwenden. Wenn du damit nicht einverstanden bist, musst du das in den Einstellungen unter „Datenkontrolle“ abwählen.
Die Speicherfunktion wird derzeit noch mit einer ausgewählten Anzahl von Nutzern getestet und wird auch mit benutzerdefinierten GPTs funktionieren. |
| |
Mistral AI macht OpenAI Konkurrenz |
| |
Die Meldung klingt zunächst verlockend, denn ein wenig ernst zunehmende Konkurrenz aus Europa würde dem Wettbewerb sehr gut tun, gerade nach dem Desaster aus der Google-Ecke.
Mistral AI hat mich heute Nacht zu seinen ChatGPT-Konkurrenten namens „Le Chat“ eingeladen, was ein mehr oder weniger lustiges Wortspiel aus dem französischen Wort für Katze und dem Englischen Chat zu sein scheint.
Nachdem mir Mistral mit seinem Mixtral 8x7B Modell als derzeit leistungsstärkstes Open Source MoE-Modell bereits positiv aufgefallen war, waren sowohl die Vorfreude, als auch meine Erwartungen an den Chatbot aus Frankreich ziemlich hoch.
Doch zu früh gefreut!
Denn anstatt weiter auf Open Source zu setzen, hat sich Mistral AI ganz dem Vorbild aus dem Valley angeschlossen und ist für sein neuestes und gleichzeitig leistungsfähigstes Modell namens „Large“ (wie unkreativ) eine exklusive Partnerschaft mit Microsoft eingegangen.
Obwohl Mistral AI CEO Arthur Mensch noch ein quelloffenes Modell auf GPT-4-Niveau für 2024 versprochen hatte, ist mit Mistral Large das neue High-End-Sprachmodell nun ausschließlich als API bei Mistral oder über Microsofts Azure verfügbar.
Das Modell an sich ist jedoch ziemlich interessant, denn es erreicht tatsächlich erstklassige Reasoning-Fähigkeiten und ist durch weniger US-zentrierte Trainingsdaten, aus meiner Sicht derzeit das Modell der Wahl für komplexe mehrsprachige Argumentationsaufgaben, einschließlich Textverständnis, Transformation und Codegenerierung, insbesondere mit Blick auf das Thema Datenschutz.
Mistral Large erzielt bei gängigen Benchmarks insgesamt sehr gute Ergebnisse und ist damit nach GPT-4 das zweitbeste über eine API verfügbare Modell der Welt: |
| |
In den nicht-englischen Aufgaben der Benchmarks übertrifft es LLaMA 2 70B in Französisch, Deutsch, Spanisch und Italienisch bei Weitem!
Dank meinem frühen Zugriff auf Le Chat, konnte ich mir selbst schon ein Bild von Large machen und bin sehr positiv überrascht.
Die Platform selbst kann in Sachen Funktionsumfang zwar derzeit noch nicht mit ChatGPT mithalten, aber das wird sich dank der Unterstützung für Funktionsaufrufe schnell ändern. Diese Fähigkeit ermöglichen es, die neuen Mistral-Modelle Large und Small mit externen Tools über APIs zu verbinden: |
| |
Aktuell ist „Le Chat“ ein relativ primitiver Chatbot ohne Uploadmöglichkeit für Dokumente, Bilder oder Ähnliches dar und bietet auch keine Sandbox für Code-Ausführung, Bildgenerierung oder gar eigene GPTs.
Auch die Fähigkeiten des Sprachmodells „Large“ fühlten sich in meinen ersten Gehversuchen eher nach GPT 3.5 an, als GPT-4. Bei der Anweisung einen vorhandenen Text umzuschreiben oder neu zu formulieren, wiederholte Le Chat in einem von zwei Fällen schlicht den Originaltext, anstatt eine reformulierte Variante zu erzeugen. Manchmal konnte ich durch einen veränderten Prompt, oder einen kürzeren Abschnitt das Modell dazu bringen, manchmal blieb es jedoch stur bei einer Wiederholung meiner Eingabe.
Auch wenn sich die Arbeit mit „Le Chat“ noch anfühlt wie ChatGPT 3.5 in der Gratisversion, sehe ich hier viel Potential, dass wir endlich ein Europäisches Unternehmen haben, dass in der Lage ist ganz vorne mitzuspielen und für datenschutz-sensible Themen definitiv eine bessere Wahl sein wird, als Open AIs Dienste. |
| |
Neuer Prompting Trick: „Self-Discover“ |
| |
Im Bereich Prompt Engineering beleuchte ich dieses mal einen neuen Ansatz im Umgang mit kognitiven Herausforderungen bei großen Sprachmodellen: Die Verwendung spezialisierter Prompting-Techniken für logisches Denken.
Trotz beeindruckender Entwicklungen in der künstlichen Intelligenz, bleibt das logische Schlussfolgern eine signifikante Hürde.
Ein vielversprechendes Projekt von Google DeepMind und der University of Southern California, „Self-Discover“ genannt, zielt darauf ab, Sprachmodelle zu befähigen, autonom logische Strukturen zu erkennen und zu nutzen, um komplexe Probleme zu bewältigen.
Der Kern dieses Vorhabens ist ein speziell entwickeltes Framework, das dem Modell eine Reihe von Prompting-Bausteinen anbietet. Diese Bausteine umfassen Methoden wie „Schritt-für-Schritt-Analysen“, „kritische Reflexion“ und „Zerlegung in Teilprobleme“.
Ausgestattet mit diesen Werkzeugen, wählt das Modell eigenständig die passenden Bausteine für eine vorliegende Aufgabe, passt diese individuell an und formuliert einen detaillierten Lösungsplan! Dieser innovative Prozess ermöglicht es dem Modell, Aufgaben erfolgreich zu bewältigen, indem es den selbst erstellten Plan Schritt für Schritt umsetzt.
Quelle: The Decoder |
| |
KI im Berufsalltag: Hohe Nachfrage, doch Weiterbildung bleibt Mangelware |
| |
Eine aktuelle Studie zeigt: Obwohl künstliche Intelligenz (KI) zunehmend den Arbeitsalltag prägt, bleiben entsprechende Weiterbildungsangebote für viele Arbeitnehmer ein unerfüllter Wunsch.
Laut dem Trendence HR-Monitor, der deutschlandweit 6.246 Beschäftigte befragte, nutzen immer mehr Berufstätige KI-Tools, werden jedoch von ihren Arbeitgebern nur unzureichend in deren Anwendung geschult.
Die Studie offenbart, dass mehr als die Hälfte aller Beschäftigten von ihren Arbeitgebern angehalten werden, KI-basierte Anwendungen zu nutzen – ein Trend, der quer durch alle Qualifikationsniveaus beobachtet werden kann. Doch nur ein Fünftel der Befragten erhält die Chance, sich durch Fortbildungen in diesem Bereich weiterzuentwickeln. Insbesondere Fachkräfte bleiben mit lediglich 11,5 Prozent Zugang zu solchen Bildungsangeboten weitestgehend außen vor. Bei Akademikerinnen und Akademikern sieht es mit 33,8 Prozent zwar besser, aber immer noch nicht zufriedenstellend aus.
Die Nachfrage nach KI-Weiterbildung ist dabei hoch: Zwei Drittel aller Befragten würden gerne entsprechende Angebote ihres Arbeitgebers wahrnehmen, bei den akademischen Kräften liegt die Quote sogar bei 80,1 Prozent.
Trotz der Defizite in der Weiterbildung schätzt eine Mehrheit der Beschäftigten die KI als Chance für ihre berufliche Zukunft ein. Besonders Akademiker sind optimistisch und sehen in der KI-Technologie ein Potenzial für den eigenen Karriereweg. Doch auch unter den Fachkräften ohne akademische Ausbildung erkennt eine Mehrheit berufliche Chancen durch die Nutzung von KI, wenngleich hier die Sorgen um negative Auswirkungen etwas größer sind.
Der Einsatz von KI-Tools ist vor allem bei Akademikern ausgeprägt, die diese unter anderem für Texterstellung, Recherchearbeiten und zur Qualitätskontrolle nutzen. Ein signifikanter Anteil der Befragten fühlt sich allerdings nur mäßig oder gar nicht auf den Umgang mit diesen Technologien vorbereitet.
Diese Erkenntnisse unterstreichen die Notwendigkeit, dass Unternehmen in die KI-Kompetenz ihrer Belegschaft investieren müssen, um sowohl den individuellen als auch den organisatorischen Anforderungen der Zukunft gerecht zu werden.
Quelle: ONEtoONE
Mein neuer KI-Werkraum ist genau für diesen Bedarf konzipiert und bereits in Q1 und Q2 komplett ausgebucht! |
| |
KI-Skills bringen so viel Einkommensplus wie ein Doktortitel! |
| |
Über einen Artikel im Handelsblatt bin ich auf eine Studie aufmerksam geworden, die herausgefunden haben will, dass KI-Fähigkeiten in Sachen Gehalt bereits zu den wertvollsten Skills von Arbeitnehmern am Arbeitsmarkt gehören. Eine umfassende Analyse von Jobangeboten mit Gehaltsangaben aus Großbritannien hat ergeben, dass das Gehaltsplus bei KI-Skills rund 16 Prozent beträgt. Das sei fünfmal mehr als der Durchschnitt aller anderen Fähigkeiten.
Mit KI-Fähigkeiten meint die Studie übrigens das Beherrschen von Python im Zusammenhang mit der Programmierung von Machine Learning Modellen und nicht etwa das bloße Anwenden eines Chatbots oder reines Prompten!
So seien diese Jobs mit KI-Bezug bereits sehr anspruchsvoll, weshalb ein Studium in der Regel vorausgesetzt wird, tatsächlich ist bei KI-Jobs offenbar die Nachfrage derart gestiegen, dass kaum noch ein Gehaltsvorteil für Akademiker zu erkennen ist und selbst ein Doktortitel das Gehalt nicht mehr zu steigern vermag!
. Den Artikel konnte ich aufgrund der Paywall zwar nicht lesen, doch man findet dazu einiges auf X sowie die offizielle Publikation der Studie. |
| |
|
Die Zukunft generativer KI: Revolution oder Sackgasse? |
Die jüngste Veröffentlichung von „Sora“, einem KI-Modell von OpenAI, das realistische und phantasievolle Videoszenen aus Textanweisungen erzeugen kann, befeuert gerade die hitzige Debatte darüber, ob solche Modelle grundsätzlich dazu geeignet sind, die Welt zu verstehen, oder ob sie letztendlich stochastische Papageien bleiben werden. OpenAI betont in seiner Ankündigung explizit, sie lehrten KI, die physische Welt in Bewegung zu verstehen und zu simulieren, mit dem Ziel, Modelle zu trainieren, die Menschen bei Problemlösungen unterstützen, welche echte Weltinteraktion erfordern. Doch genau hier scheiden sich offenbar die Geister. Yann LeCun, ein führender Kopf in der KI-Forschung, äußerte auf X Bedenken: „Die Welt durch Pixelgenerierung für Handlungen zu modellieren, ist ebenso verschwenderisch und zum Scheitern verurteilt wie die weitgehend aufgegebene Idee der ‚Analyse durch… |
|
|
|
| |
Inhaber Kai Spriestersbach
Galgenäcker 7, 97903 Collenberg
Impressum: afaik.de/impressum
| |
Falls Du Dich fragst, wieso Du diesen Newsletter erhältst:
Aus SEARCH ONE wurde AFAIK.
Du hast Dich in der Vergangenheit für meinem Newsletter angemeldet, damals wahrscheinlich noch unter search-one.de. Mittlerweile heißt mein Blog jedoch AFAIK, weshalb auch der Absender meiner Newsletter nun von [email protected] auf [email protected] umgestellt wurde. |
| |
|