Und schon kommt das nächste KI-Update von mir. Es gibt so viele spannende News! Da will ich gerade den Newsletter abschicken, der ohnehin schon so vollgepackt mit spannenden Dingen steckt, da kommt eine aktuelle Meldung rein: |
| |
Figures humanoide Roboter, die von OpenAIs Modellen angetrieben werden, zeigen menschenähnliche Fähigkeiten in einer neuen Demo! |
| |
Erst letzten Monat kündigte das Robotik-Startup FigureAI eine Partnerschaft mit OpenAI an, um ein KI-Modell zu entwickeln, das speziell auf Roboter zugeschnitten ist – und die ersten Ergebnisse, die gestern vorgestellt wurden, haben die KI-Gemeinde verblüfft.
Anfangs ging es nur um die Steuerung von Extremitäten, doch Figure AIs Roboter können nun dank OpenAIs Modellen tatsächlich verstehen, was wir sagen und entsprechend reagieren. Darin führt der Roboter namens Figure01 eine Reihe von Aufgaben aus, die ausschließlich auf verbalen Befehlen basieren.
So kann der Roboter sehen und beschreiben, was vor ihm liegt. Er reicht dem Menschen einen Apfel, wenn er ihn um etwas zu essen bittet und er erklärt, warum er dem Menschen einen Apfel gegeben hat, während er den Müll in einen Korb sortiert. Zum Ende stellt er sogar auch Geschirr in ein Abtropfgestell, wenn er gefragt wird, wo es hingehört.
Figure01 zeigt dabei eine erstaunlich feinfühlige Handhabung beim Umgang mit Gegenständen und spricht relativ natürlich, wenn ihm eine Frage gestellt wird – wenn auch derzeit noch mit etwas Verzögerung. Figure AI behauptet, dass die Bewegungen des Roboters nicht für die Demo im Voraus geplant wurden.
Du kannst dir das vollständige Demo-Video von Figure01 hier ansehen. |
| |
GPT-4.5 Turbo könnte bereits im Juni veröffentlicht werden |
| |
Im neuesten Clou aus dem Hause OpenAI zeichnet sich eine spannende Entwicklung ab: GPT-4.5 Turbo scheint kurz vor der Enthüllung zu stehen. Suchmaschinenergebnisse deuten darauf hin, dass Bing und Duck Duck Go bereits eine Produktseite indexiert haben, die mittlerweile allerdings nur auf eine 404-Fehlerseite führt.
Der Teasertext verspricht, dass GPT-4.5 Turbo das bisher schnellste, genaueste und skalierbarste Modell sein wird.
Besonders interessant: Das Kontextfenster des Modells soll bei beeindruckenden 256K Token liegen, was eine Verdoppelung gegenüber seinem Vorgänger darstellt. Während bisherige Modelle mit großen Kontextfenstern jedoch dazu neigen, Teile der Informationen zu übersehen – ein gravierender Nachteil bei der Verarbeitung umfangreicher Dokumente –, könnte GPT-4.5 Turbo hier einen entscheidenden Durchbruch erzielen. Die Fähigkeit, die gesamte Textmenge zuverlässig zu verarbeiten, würde das Modell für komplexe Textanalysen erheblich aufwerten! Alleine diese Verbesserung könnte GPT-4.5 Turbo schon zu einem signifikanten Fortschritt gegenüber seinen Vorgängern machen.
Trotz Gerüchten über erweiterte Fähigkeiten wie Video- oder 3D-Verarbeitung bleibt die genaue Funktionalität des Modells vorerst ein Rätsel.
Die offizielle Vorstellung könnte zeitlich mit dem Jahrestag von GPT-4 zusammenfallen, wobei auch ein Auftritt des OpenAI-CEOs Sam Altman im Podcast von Lex Fridman geplant ist. Allerdings wird das Modell zu diesem Zeitpunkt wahrscheinlich noch nicht veröffentlicht, sondern nur Angekündigt, denn wenn man sich das „Knowledge Cutoff Date“ von GPT-4.5 ansieht, das offenbar im Juni 2024 liegt, deutet dies darauf hin, dass die Veröffentlichung des GPT-4.5 Turbo für Juni geplant ist.
Früher wurden OpenAIs Modelle direkt nach ihrer Vorstellung zur Verfügung gestellt, doch durch die jüngsten Veröffentlichungen von GPT-4-überlegenen Modellen wie Anthropics Claude 3 und Mistrals Large könnte diese Taktik Nutzer:innen bei der Stange zu halten und von einem Wechsel abhalten.
Quelle: the-decoder |
| |
Der Kampf um die besten KI-Talente im Silicon Valley hat negative Folgen für die Akademische Welt |
| |
Man muss Geld ausgeben, um Geld zu verdienen. Zum Leidwesen der akademischen Welt, trifft das insbesondere auf die KI-Forschung zu. Denn im Gegensatz zu öffentlichen Forschungseinrichtungen, die oft nur sehr wenig Geld zur Verfügung haben, ist das Silicon Valley bereit, das große Geld auszugeben, um sich einen Vorsprung in Sachen künstliche Intelligenz zu verschaffen.
Private Unternehmen wie Google, Meta, Apple, Anthropic, OpenAI und Co. locken Spitzenwissenschaftler/innen mit exorbitanten Gehältern an: Netflix zum Beispiel hat letztes Jahr eine Stelle für maschinelles Lernen ausgeschrieben, die mit unglaublichen 900.000 Dollar jährlich dotiert ist. Rechnet man Aktienoptionen noch hinzu, kann man so in wenigen Jahren zum Multimillionär aufsteigen, ohne selbst ein Startup gründen und ein Wagnis eingehen muss. Es steht jedoch zu befürchten, dass die Abwanderung von Spitzenkräften an den Universitäten dazu führt, dass sich die besten KI-Talente in den Händen einiger weniger Großkonzerne befinden.
Da ich nun selbst in der KI-Forschung arbeite, wenn auch nur in Teilzeit, kann ich bestätigen, dass das liebe Geld ist nicht das Einzige, was Akademiker/innen abwandern lässt. Viele in der Akademischen Welt sind tatsächlich intrinsisch motiviert und schauen nicht so stark auf das Einkommen, sondern sind mehr an persönlicher Entwicklung und ihrem Forschungsgebiet interessiert.
Allerdings ist jedem KI-Forscher und jeder KI-Forscherin mittlerweile klar, dass neueste Entwicklungen und die großen Durchbrüche nicht mehr in den Laboren der Universitäten stattfinden. Es fehlt hier schlicht an einer soliden Grundfinanzierung und das Fördervolumen aktueller KI-Initiativen zur Stärkung der Forschung sind, verglichen mit Venture Capital Fonds eher ein Witz. Noch dazu achtet man, gerade in Deutschland darauf, viele Projekte zu fördern, was die Summen, die man als Research Group erhalten kann, weiter schmälert.
Wir sprechen hier teilweise über Fördersummen, die in der freien Wirtschaft noch nicht einmal für eine H100 und eine Vollzeitkraft ausreichen würden. Daher konzentriert man sich in der Wissenschaft eher auf Nischenthemen und die Nutzung von KI für das Gemeinwohl, oder arbeitet gleich mit Industriepartnern zusammen, die die kommerzielle Verwertung gleich mit übernehmen.
Eine aktuelle Stanford-Studie hat ergeben, dass akademische Einrichtungen im Jahr 2022 nur drei wichtige Algorithmen für maschinelles Lernen entwickelt haben, verglichen mit 32 von privaten Unternehmen, berichtet die Washington Post.
Der Kampf um die besten KI-Talente geht jedoch weit über den akademischen Bereich hinaus. Kleinere Start-ups haben das gleiche Problem, wenn sie versuchen, in der Branche Fuß zu fassen: Der CEO von Perplexity AI erklärte kürzlich gegenüber Business Insider, dass er einen Spitzenforscher von Meta nicht für sich gewinnen konnte, weil der Kandidat wusste, dass Perplexity mit viel weniger Rechenleistung arbeitet. „Kommen Sie auf mich zurück, wenn Sie 10.000 H100-GPUs haben“, soll der Forscher gesagt haben.
Unterdessen hat Metas CEO Mark Zuckerberg bekannt gegeben, dass sie zum Weltmarktführer für KI werden wollen. Das Unternehmen wird 10 Milliarden Dollar alleine für Inferenz.Hardware ausgeben, um bis Ende 2024 350.000 zusätzliche Nvidia H100 Grafikkarten in sein Arsenal aufzunehmen. Eine davon kostet etwa 30.000 EUR!
Zuckerberg sagt, dass die leistungsstarken Chips von Nvidia notwendig sind, um die Forschung im Bereich der allgemeinen künstlichen Intelligenz (AGI) voranzutreiben. Meta wird damit Ende 2024 insgesamt 600.000 Grafikprozessoren zur Verfügung haben, um seine „langfristige Vision“ der Schaffung von AGI zu verwirklichen.
Ich bin gespannt, ob Meta seine fortschrittlichsten Modelle weiterhin als Open Source veröffentlichen wird. Die kommerzielle Nutzung ist ja bereits bei Llama 2 eingeschränkt, allerdings ziemlich weitgehend (bis 700 Mio. Nutzern.) |
| |
Der perfekte SEO-Content mit Hilfe der KI? |
| |
Für das OMT-Magazin habe satte 6.000 Wörter darüber geschrieben, wie der perfekte SEO-Content aus meiner Sicht aussieht. Darin versuche ich zu beschreiben, was Inhalt wirklich einzigartig, hilfreich und wertvoll macht und habe selbstverständlich auch das Thema KI-generierte Texte besprochen. |
| |
Der perfekte SEO-Content: Was Inhalt wirklich einzigartig, hilfreich und wertvoll macht |
| |
Komm aufs Plateau der Produktivität: Generativen KI nach Hype und Ernüchterung |
| |
Bei neuen Technologien ist es nicht ungewöhnlich, dass diese zunächst mit großem Enthusiasmus aufgenommen werden. Die generative Künstliche Intelligenz (KI) ist ein hervorragendes Beispiel dafür, wie ein technologischer Durchbruch für Furore sorgt. Doch nach jedem Hype kommt die Enttäuschung. Der Weg von der Begeisterung zur praktischen Anwendung ist mit Herausforderungen gepflastert.
Laut einem Artikel bei The Information sieht ein Analyst von Gartner die Branche am Höhepunkt des Hype-Zyklus erreicht. Die nächste Phase, eine sogenannte „Talsohle der Enttäuschung“, wird bereits antizipiert. Dennoch bleibt die Hoffnung, dass auf lange Sicht eine breite Akzeptanz für generative KI-Technologien erreicht wird.
Führende Cloud-Anbieter wie Microsoft, Amazon Web Services und Google sowie deren Kunden gehen mittlerweile vorsichtiger mit dem Thema generative KI um. Die anfängliche Euphorie weicht einer kritischeren Betrachtung, insbesondere hinsichtlich der Kosten, Effizienz und des tatsächlichen Nutzens dieser Technologien. Hohe Betriebskosten und die Schwierigkeit, den Mehrwert im Arbeitsalltag zu quantifizieren, stehen im Fokus der Bedenken.
Während Microsoft durch die Partnerschaft mit OpenAI einen Umsatzschub im KI-Segment verzeichnen konnte, stehen Google und Amazon Web Services (AWS) noch vor finanziellen Herausforderungen. Die hohen Investitionen in KI haben bisher nicht den erwarteten finanziellen Erfolg gebracht. Google hofft jedoch, in diesem Jahr einen bedeutenden Umsatz mit KI-Diensten zu erzielen.
Mit der Einführung von Gemini Advanced versucht Google, eine direkte Konkurrenz zu ChatGPT zu etablieren. Trotz ambitionierter Bemühungen hat Gemini Advanced bisher nicht die erhoffte Aufmerksamkeit erlangt. ChatGPT bleibt führend, auch wenn die Zugriffszahlen stagnieren.
Die Entwicklung und Implementierung generativer KI ist aber kein Selbstläufer. Während die Technologie das Potenzial hat, Arbeitsweisen grundlegend zu verändern und vollkommen neue Produkte und Wertschöpfungsketten zu etablieren, müssen die konkreten Herausforderungen hinsichtlich Sicherheit, Zuverlässigkeit, sowie Kosten und Nutzen angegangen werden.
Die kommenden Jahre werden zeigen, wie und wo sich generative KI in der Praxis etablieren und welchen langfristigen Einfluss sie auf verschiedene Branchen haben wird. |
| |
Mehr Kontrolle für Brand Voice bei Neuroflash |
| |
Das KI-Tool Neuroflash aus Deutschland hat kürzlich den Brand Hub eingeführt, ein neues Tool zur Erstellung konsistenter und personalisierter KI-Inhalte. |
| |
Dieses Tool ermöglicht es Nutzern, ihre Dokumente zu ordnen und zu sortieren und bietet eine zentrale Plattform für das Management von Brand Voices, Informationsmanagement und eine Prompt-Bibliothek.
Der Brand Hub ist darauf ausgelegt, die Voreinstellungen so anzupassen, dass Inhalte konsistent den individuellen Stil der Nutzer treffen und relevante Informationen zu Produkten und Marken integrieren.
Im Brand Hub können Nutzer nun Brand Voices zentral erstellen, verwalten und mit ihrem Team teilen. Diese Brand Voices, vormals als „Persönlichkeiten“ bezeichnet, können für jede Textgenerierung aktiviert werden, einschließlich Textdokumente, verschiedene Textarten, ChatFlash, in Workflows oder PerformanceFlash.
Nutzer haben auch die Möglichkeit, wichtige Informationen für die Texterstellung bereitzustellen, wie Produktinformationen, SEO Keyword-Listen oder Hintergrundwissen zur Marke. Einmal im Brand Hub eingerichtet, lassen sich diese Informationen gezielt für intelligente und relevante Textgenerierung nutzen.
Prompt-Vorlagen, die zuvor nur auf Textdokument-Ebene erstellt werden konnten, können nun ebenfalls im Brand Hub erstellt, bearbeitet und im Team geteilt werden. Bestehende Persönlichkeiten der Nutzer werden unter der neuen Bezeichnung „Brand Voices“ geführt, während die von neuroflash bereitgestellten Standard-Persönlichkeiten jetzt als Information (Kategorie „Skill“) gespeichert werden und bei jeder Textgenerierung aktivierbar sind.
Der Brand Hub bietet somit gleich mehrere Vorteile, darunter Markenkonsistenz durch die Aktivierung von Brand Voices bei jeder Texterstellung, relevante und präzise KI-Inhalte, einfache Verwaltung aller wichtigen Aspekte an einem Ort sowie gesteigerte Effizienz bei der Texterstellung, da das Tool bereits mit dem Kontext und den Anforderungen des Nutzers vertraut ist. |
| |
Devin von Cognition AI: Der erste komplett automatisierte KI-Software-Entwickler |
| |
Devins Fähigkeiten sind unglaublich beeindruckend, wenn die Demos echt sind und nicht nur eine Auswahl seltener, glücklicher Ereignisse darstellen. Insbesondere im langfristigen Denken und Planen kann Devin erstaunlich zielsicher selbst komplexe technische Aufgaben planen und ausführen, die Tausende von einzelnen Entscheidungen erfordern. Devin kann sich dabei jedem Schritt an den relevanten Kontext erinnern und sogar mit der Zeit lernen und seine eigenen Fehler korrigieren.
Devin kommt mit gängigen Entwicklerwerkzeugen wie Shell, Code-Editor und Browser in einer Sandbox-Umgebung und kann sogar als Coding-Partner mit einem Menschen zusammenarbeiten. Devin berichtet in Echtzeit über seine Fortschritte, nimmt Feedback an und arbeitet bei Bedarf an Designentscheidungen mit. |
| |
Wann steigt Apple ins Rennen um künstliche Intelligenz ein? |
| |
Apple war bisher ziemlich verschlossen, was seine KI-Ambitionen angeht, aber der Tech-Gigant signalisiert jetzt, dass Siri vor einem großen Upgrade steht, das es zu einem Herausforderer von ChatGPT und Googles Gemini im Rennen der KI-Assistenten machen könnte.
Der Miterfinder von Siri, Dag Kittlaus, hat kürzlich getwittert, dass der Assistent im Jahr 2024 „coole neue Dinge“ tun und „sich beschleunigen und eine echte Kraft in der KI-Arena werden“ wird.
Apple hat erst kürzlich mehrere wichtige KI-Forschungsarbeiten veröffentlicht und seit 2017 in aller Stille 21 KI-Startups übernommen. Die viel größere Nachricht in diesem Zusammenhang ist für mich jedoch, dass Apple sein geheimes Elektroauto-Projekt eingestellt hat und viele der Mitarbeiter von Project Titan nun an generativer KI arbeiten sollen!
Gerüchten zufolge befindet sich AppleGPT bereits in der Entwicklung – eine Siri-Integration wird im Juni auf der WWDC 2024 erwartet. Die Vermarktung des neuen M3-Chips als „weltbester Consumer-Laptop für KI“ deutet außerdem darauf hin, dass Apple eine Lösung gefunden hat, um seine KI-Modelle effizient auf dem Gerät auszuführen und vielleicht sogar in das Betriebssystem direkt integrieren wird. |
| |
xAI will Grok noch in dieser Woche als Open Source veröffentlichen! |
| |
Über den abstrusen Versuch von Elon Musk, der angeblich „zu woken“ KI von OpenAI und Co. etwas „liberaleres“ entgegegen zu setzen, hatte ich bereits vor einigen Wochen berichtet. Ich habe mich sehr amüsiert, dass Grok auf den Trainingsdaten, die xAI ausgewählt hatte, sogar noch „sozialistischer“ oder „linker“ geworden war, als ChatGPT.
Ich bezweifle zwar, dass Elon Musk daraus gelernt hat, dass seine Weltsicht vielleicht doch eher einer Verzerrung unterliegt, aber offenbar hat er sich nun dazu entschieden, Grok als Open Source zu veröffentlichen. Das ist eine weitere Wendung in seiner eskalierenden Fehde mit Sam Altmans OpenAI und dem Rennen um die Vorherrschaft im KI-Bereich.
Laut seinem Tweet soll dies noch in dieser Woche passieren!
Es wird erwartet, dass Grok eine „Live“-Suchmaschine hat, die mit X verbunden ist, ein Kontextfenster von 25.000 Token hat und schließlich nativ in Teslas läuft.
Der Schritt kommt nur wenige Tage nach der Klage von Musk gegen OpenAI und der Veröffentlichung privater E-Mails, aus denen hervorgeht, dass Musk ursprünglich eine gewinnorientierte Umstellung unterstützte. Musks Open-Sourcing von Grok ist in diesem Zusammenhang eindeutig als strategischer Gegenschlag zu werten. |
| |
Inhaber Kai Spriestersbach
Galgenäcker 7, 97903 Collenberg
Impressum: afaik.de/impressum
| |
Falls Du Dich fragst, wieso Du diesen Newsletter erhältst:
Aus SEARCH ONE wurde AFAIK.
Du hast Dich in der Vergangenheit für meinem Newsletter angemeldet, damals wahrscheinlich noch unter search-one.de. Mittlerweile heißt mein Blog jedoch AFAIK, weshalb auch der Absender meiner Newsletter nun von [email protected] auf [email protected] umgestellt wurde. |
| |
|