???? Bereite dich auf die Zukunft der SEO vor – mit KI und ML zum Erfolg!
AFAIK
KI-News, Apple Intelligence, OMR Report, OMR Academy und Start des Future of SEO Kurses

Letzte Woche war ich mal wieder für einen KI-Werkraum unterwegs und komme nun endlich dazu, die neuesten Entwicklungen für Euch zusammen zu fassen. Ganz aktuell und sehr spannend: Apple stellte gestern seine AI (das steht für Apple Intelligence ????) auf der WWDC vor!

Aber schön langsam der Reihe nach...

Apple Intelligence: KI mit Datenschutz inklusive!
Apple Intelligence Teaser

Apple hat gestern auf seiner Entwicklerkonferenz WWDC 2024 ihre Version von AI, namens „Apple Intelligence“ vorgestellt, ein personalisiertes KI-System für iPhone, iPad und Mac. Diese Technologie kombiniert generative Modelle mit persönlichem Kontext, um Produkte wie Schreibwerkzeuge, Bildbearbeitung und Siri zu verbessern.

Siri erhält durch die neuen KI-Fähigkeiten eine erhöhte Reaktionsfähigkeit auf den persönlichen Kontext der Nutzer*innen. So kann Siri beispielsweise Fluginformationen finden oder Inhalte von Apps besser verstehen. Apple Intelligence wird diesen Herbst als Beta-Version in US-Englisch auf neueren Geräten verfügbar sein.

Besonders spannend: Datenschutz bleibt für Apple eine zentrale Priorität. Einfache KI-Aufgaben werden direkt auf dem Gerät ausgeführt, während komplexere Anfragen über dedizierte Server laufen, die von Apple-eigenen Chips angetrieben werden! Zu Apples externen KI-Partnern gehört auch OpenAI, deren ChatGPT, das auf GPT-4o basiert, diesen Herbst in iOS 18 und macOS integriert wird.

Laut Apple werden keine Benutzereingaben gespeichert.

Zahlende Kunden von OpenAI werden auch Zugang zu den Premiumfunktionen von ChatGPT haben, es handelt sich also auch um eine Vertriebspartnerschaft, aber laut OpenAI kann Siri „auch auf die Intelligenz von ChatGPT zurückgreifen, wenn es hilfreich ist“. (Quelle)

Die Verfügbarkeit ist im ersten Schritt leider noch sehr begrenzt: Apple Intelligence ist ein kostenloses Feature von iOS 18, iPadOS 18 und macOS Sequoia, das im Herbst erscheinen wird. Allerdings wird die Software zunächst nur als Beta und in US-Englisch und nur für iPhone 15 Pro, iPhone 15 Pro Max, iPads und Macs ab M1 verfügbar sein. Außerdem müssen Siri und die Gerätesprache auf US-Englisch eingestellt sein.

Technische Details veröffentlicht

Apple hat mittlerweile auch ein paar technische Details zu den On-Device-Modellen veröffentlicht, die ich persönlich sehr spannend finde.

Kurz gesagt, hat Apple extrem kleine Versionen von LLMs erstellt (Nur 3 Milliarden Parameter), die auf iPhones, iPads und Co. ohne Internetverbindung laufen und den Leistungsverlust durch viele spezialisierte Modelle  (mit jeweils unter 100 MB Größe) ausgeglichen.

Für die Tekkies unter euch die Details:

- Das On-Device-Modell ist ein 3B-LLM
- Trainiert mit AXLearn (auf JAX basierend)
- Verwendung sowohl menschlich annotierter als auch synthetischer Daten für spezifisches Fine-Tuning
- Modelle nutzen Grouped Query Attention mit gemeinsamen Eingangs- und Ausgangswortschatz-Tabellen
- Das On-Device-Modell hat 49K Vokabeln, der Server 100K
- Das On-Device-Modell wird mit Low-Bit-Palletierung bereitgestellt und erreicht 3,5 Bit (nur Gewichtsquantisierung) - definitiv über CoreML-Binärdateien serviert
- Talaria wurde verwendet, um zu bestimmen, was und wie quantisiert werden soll
- Das On-Device-Modell erreicht 0,6ms Zeit bis zum ersten Token und generiert 30 Tokens pro Sekunde
- LoRA-Adapter für spezialisierte Aufgaben wie E-Mail-Antworten, Zusammenfassungen, Korrekturlesen usw.
- Adaptergröße beträgt < 100MB
- Durchführung von Accuracy Recovery LoRA für anständige Downstream-Leistung

Aus den Evaluierungen geht hervor, dass ähnliche Ergebnisse auch mit offenen Quellen wie Gemma 2B, Phi 3, Mistral 7B und Llama 3 8B erreicht werden könnten, insbesondere wenn auf hochwertige (synthetische?) Daten feinabgestimmt wird.

Großes Lob an Apple für die Veröffentlichung dieser Informationen – besonders der LoRA-Teil ist äußerst hilfreich! ????

Exklusive Einblicke: Interview mit OMR über die Bedeutung und Grundlagen des Promptings in KI-Modellen

Womöglich hast Du schon bei LinkedIn gesehen, dass ich von der OMR Education GmbH als Berater angeheuert wurde, um bei der Erstellung des ersten KI-Reports und dem ersten Kurs der kommenden KI-Academy bei OMR zu helfen.

Im Rahmen des kommenden Reports zum Thema Künstliche Intelligenz habe ich in einem Interview über die Bedeutung und die Grundlagen des Promptings gesprochen. Hier sind die wichtigsten Inhalte für euch exklusiv zusammengefasst.

Bedeutung und Grundlagen des Promptings

Effektives Prompting ist entscheidend für die Nutzung von KI-Modellen. Sprachmodelle wie GPT-4 verstehen nicht wirklich, was sie generieren. Stattdessen berechnen sie das nächste Token oder Wort basierend auf Wahrscheinlichkeiten, die aus den Trainingsdaten abgeleitet sind. Obwohl dieser Prozess hochkomplex ist, führt er nur zu einer Näherung der Realität.

Da bei der Textgenerierung immer ein gewisses Maß an Zufall enthalten ist, um natürliche und lebendige Texte zu erzeugen, können auch unbeabsichtigte Abschweifungen oder Halluzinationen entstehen. Präzise Prompts sind daher unerlässlich, um die Generierung im richtigen Kontext auszulösen und das Fehlerpotential durch den Zufallsfaktor zu minimieren.

Was macht einen guten Prompt aus?

Ein guter Prompt ist wie ein detailliertes Briefing. Er sollte so präzise und spezifisch wie möglich beschreiben, was man möchte, und alle relevanten Informationen einschließen, die auch ein Mensch zur Bewältigung der Aufgabe benötigen würde. Viele Nutzer:innen machen den Fehler, zu kurze Prompts zu verwenden, die zu wenig Kontext, Ziel und Wünsche enthalten. Dadurch entsteht oft oberflächliches Geschwafel mit potenziellen Halluzinationen. Zum Beispiel sagt der Prompt „Erstelle einen Artikel über künstliche Intelligenz“ nichts über den Zweck oder die Zielgruppe des Textes aus, was die Wahrscheinlichkeit für unpassende Ergebnisse erhöht.

Modellspezifische Unterschiede und Techniken

Beim Prompting muss man die geeignete Sprache und Art des Modells berücksichtigen. Bild- oder Videomodelle wie Stable Diffusion und Midjourney wurden oft nur mit englischen Bild-/Text-Paaren trainiert. Daher sollten Anweisungen in Englisch und in einer visuellen Beschreibungssprache formuliert werden. Es hilft, die gewünschten Licht- und Kameraperspektiven zu beschreiben und Angaben zu Kamera-Modell und Objektiv oder stilistische Angaben zur Art des gewünschten Bildes hinzuzufügen.

Es ist auch wichtig zu wissen, ob man es mit einem Instruct-Modell oder einem Base-Modell zu tun hat. Während man mit einem Chat- oder Instruct-Modell eine „richtige“ Konversation führen kann, muss man bei Basismodellen, die nur Texte vervollständigen, die Prompts so formulieren, dass die Vervollständigung durch die KI das gewünschte Ergebnis enthält.

Die Modellgröße und Komplexität spielen ebenfalls eine wichtige Rolle bei der Verwendung der richtigen Prompt-Technik. Kleine Modelle benötigen klare, einfache und verständliche Anweisungen, idealerweise mit Beispielen. Unterschiedliche Trainingsdaten, Modellarchitekturen und Sicherheitsmechanismen führen zu weiteren modellspezifischen Unterschieden. Vor der Auswahl eines Modells sollte dieses daher umfassend analysiert und hinsichtlich seiner Leistungsfähigkeit bewertet werden (Benchmarking & Evaluierung).

Effektive Prompting-Techniken

Das RTF-Framework stellt einen guten Ausgangspunkt dar. Dabei wird dem Modell zunächst eine Rolle (R = role) zugewiesen, wie „Sei eine kreative Werbetexterin mit 15 Jahren Erfahrung in der Online-Kommunikation für Kunden in der Lebensmittelindustrie“. Anschließend wird die Aufgabe (T = task) beschrieben, wie „Erstelle eine Liste kreativer Claims für das Produkt…“. Zum Schluss wird das Format (F = format) spezifiziert, z. B. „Erstelle eine unsortierte Liste oder schreibe im Markdown-Format“.

Für komplexe Aufgaben sind Chain-Of-Thought (CoT) und Few-Shot-Prompting besonders effektiv. CoT-Prompting fördert das Modell, über die Aufgabe nachzudenken, bevor es das Ergebnis erstellt, indem man Anweisungen wie „Überlege schrittweise“ anfügt. Beim Few-Shot-Prompting liefert man dem Modell Beispiele, aus denen es die gewünschten Muster ableiten kann.

Erkennung und Vermeidung von Halluzinationen

Halluzinationen lassen sich durch gründliche Überprüfung aller Aussagen und Fakten erkennen. Expertenwissen ist dabei unerlässlich. Halluzinationen können aufgrund der statistischen Natur der KI-Modelle nie ganz vermieden werden, aber durch ausführliche Prompts und Techniken wie Retrieval-Augmented-Generation (RAG) lässt sich die Wahrscheinlichkeit verringern.

Es ist wichtig, die Grenzen der KI zu kennen und zu beachten, besonders wenn es um aktuelle Ereignisse geht.

Kontext und Relevanz

Der Kontext eines Prompts sollte so umfassend wie möglich sein, ohne sich zu wiederholen oder zu widersprechen. Eine gute Faustregel ist, der KI alle Informationen zu liefern, die auch ein Mensch zur Lösung der Aufgabe benötigen würde. Es kann hilfreich sein, sich vorzustellen, man würde die Aufgabe an eine unerfahrene Person übergeben. Manchmal stößt man jedoch an die Grenzen des Kontextfensters, da die KI nur eine bestimmte Menge an Text auf einmal verarbeiten kann. In solchen Fällen sollte der Input zuerst zusammengefasst werden.

Verfeinerung und Bewertung

Prompt-Engineering ist oft ein Prozess von Versuch und Irrtum. Ein bewährtes Prompting-Framework erhöht die Chancen auf das gewünschte Ergebnis. Bei suboptimalen Antworten kann man die KI darauf hinweisen, was nicht gefällt und welche Anpassungen man sich wünscht. Indikatoren dafür, dass ein Prompt verfeinert werden muss, sind zum Beispiel, wenn die KI die Aufgabe offensichtlich falsch versteht oder die Antworten sehr allgemein und oberflächlich sind.

Meine Top-3-Tipps fürs Prompting

1. Lerne von Beispielen anderer: Besonders bei Bild-KI-Modellen kann man viel von Prompts und Ergebnissen lernen, die einem gefallen.

2. Verstehe die KI und die Trainingsdaten: Ein tiefes Verständnis der Funktionsweise und der Trainingsdaten hilft, bessere Prompts zu formulieren.

3. Bleibe stets kritisch: Prüfe und hinterfrage die Ergebnisse, um unsinnige Prompts und falsche Aussagen zu vermeiden.

Mein neuer KI-Kurs „The Future of SEO“ startet im Juli! Sei dabei!

Im letzten Newsletter hatte ich meine Gründe dargelegt, wieso ich noch vor meine KI-Masterclass einen Kompaktkurs zu Künstlicher Intelligenz in der Suche anbiete und Euch um Input zu gewünschten Inhalte gebeten.

Der Kurs steht nun und die erste Kohorte startet am 03. Juli 2024 bei maven.com!

Onlinekurs „Die Zukunft der SEO“ mit Kai Spriestersbach

Bist du bereit, die nächste Ära der Suchmaschinenoptimierung zu betreten? Mit meinem neuen Kompaktkurs "The Future of SEO" auf maven.com erhältst du das Wissen und die Werkzeuge, um die SEO-Welt von morgen zu meistern.

Warum dieser Kurs für dich unverzichtbar ist:

  1. Verstehe die Technologien von morgen: Lerne die Grundlagen von maschinellem Lernen (ML), künstlicher Intelligenz (KI) und großen Sprachmodellen (LLMs) kennen. Diese Technologien revolutionieren die Suchmaschinenoptimierung und machen dich zum Vorreiter in deinem Bereich.
  2. Einblicke in die neuesten Suchmaschinen: Erfahre, wie KI-basierte Suchen wie Googles Search Generative Experience (SGE), new bing, You.com und perplexity wirklich funktionieren und wie du sie beeinflussen kannst.
  3. Bleibe der Konkurrenz voraus: Mit fundiertem Wissen über die Funktionsweisen und Techniken moderner Suchmaschinen sicherst du dir einen entscheidenden Vorteil gegenüber Mitbewerbern.
  4. Maximiere deinen Einfluss: Lerne, wie du die neuesten Suchtechnologien nutzen kannst, um deine SEO-Strategien zu optimieren und deinen Einfluss im Web zu maximieren.
  5. Bereite dich auf zukünftige Veränderungen vor: Verstehe, wie sich Technologien auf Nutzerverhalten, Referral Traffic und Geschäftsmodelle auswirken und entwickle eine nachhaltige SEO-Strategie für die Zukunft.

Was du lernen wirst:

  • Grundlagen von ML, KI und LLMs: Verstehe die Technologien, die modernen Suchmaschinen zugrunde liegen.
  • Funktionsweise von KI-basierten Suchen: Erfahre, wie Suchmaschinen wie new bing, You.com, perplexity und Google SGE wirklich funktionieren.
  • Einflussmöglichkeiten und Techniken: Lerne, wie du diese neuen Suchtechnologien beeinflussen kannst.
  • Die Zukunft der Suchmaschinenoptimierung: Was sind LLMO oder GenAIO und ist das der nächste Schritt in der SEO?
  • Auswirkungen auf SEO und Web-Publishing: Wie sich diese Technologien auf Nutzerverhalten, Referral Traffic und Geschäftsmodelle auswirken.
  • Orientierung in Zeiten des Umbruchs: Lerne, Bullshit und Halbwissen von gesicherter Erkenntnis zu unterscheiden.
  • Weiterbildung für eine erfolgreiche Karriere: Bereite dich optimal auf die anstehenden Veränderungen in der SEO-Branche vor.

Über mich:

Mein Name ist Kai Spriestersbach und ich blicke auf 20 Jahre Erfahrung als SEO-Experte zurück. Ich habe sowohl in Agenturen als auch auf Unternehmensseite gearbeitet und die letzten 12 Jahre als selbstständiger Berater. Als Speaker auf Konferenzen und Autor zahlreicher Fachartikel bin ich in der SEO-Welt bekannt. Mit meinem Wissen im Bereich Machine Learning und meiner Forschung an der Universität Kaiserslautern, bringe ich eine einzigartige Perspektive in diesen Kurs ein.

Warum dieser Kurs zur richtigen Zeit kommt:

Mit der Einführung von Googles Search Generative Experience (SGE) und neuen KI-basierten Suchmaschinen wie Perplexity.ai ändern sich die Spielregeln in der SEO-Branche rasant. Viele SEOs und Kunden sind verunsichert und wissen nicht, wie sie sich auf diese Veränderungen einstellen sollen. Mein Kurs bietet dir das notwendige Wissen und die Werkzeuge, um dich in dieser neuen Landschaft zurechtzufinden und weiterhin erfolgreich zu sein.

Dieser Kurs umfasst:

  • 5 interaktive Live-Sitzungen
  • Lebenslanger Zugang zu den Kursmaterialien
  • 15 vertiefende Lektionen
  • Direkter Zugang zum Ausbilder
  • Projekte zur Anwendung des Gelernten
  • Geführtes Feedback und Reflexion
  • Private Gemeinschaft von Gleichgesinnten
  • Kurszertifikat nach Abschluss

Kursstart: 03.07.2024

Sei dabei und bereite dich auf die Zukunft der Suchmaschinenoptimierung vor. Schließe dich einer Kohorte von Gleichgesinnten an, tausche dich aus und lerne von einem der erfahrensten Experten der Branche.

Jetzt anmelden und die Zukunft der SEO meistern!

Ich freue mich darauf, dich in meinem Kurs begrüßen zu dürfen.

Beste Grüße,

Kai Spriestersbach

P.S. Verpasse nicht die Chance, dich auf die Zukunft der SEO vorzubereiten. Melde dich jetzt an und sichere dir deinen Platz in meinem AI SEO Kompaktkurs!

Geheimtipp: Googles NotebookLM für deutsche Nutzer*innen gestartet!
NotebookLM von Google endlich auch für Deutsche Nutzer

Google hat kürzlich die Plattform NotebookLM für deutsche Nutzer*innen gestartet. Bislang musste man NotebookLM über einen VPN, beispielsweise den kostenlos in Opera integrierten benutzen.

Falls Du NotebookLM noch nicht kennst: Hinter dem sperrigen Namen, verbirgt sich dahinter ein starkes Produkt, das bei insbesondere aufwendigen Recherchen hilft, denn:

NotebookLM ermöglicht es Nutzer*innen, verschiedene Dokumente hochzuladen und mit ihnen zu interagieren. Man kann Dokumente vom Gerät hochladen, aus Google Drive auswählen, Textdateien hochladen oder ganze Webseiten als Quellen nutzen. Jede Quelle wird Teil des Notebooks, automatisch von der KI analysiert und sofort zusammengefasst. Nach dem Hochladen der ersten Quelle kann der KI-Zauber beginnen. Die hauptsächliche Nutzung erfolgt über den bekannten Gemini-ChatBot, der detaillierte Fragen zu den Inhalten der Dokumente beantwortet und Quellenangaben bietet, die direkt zu den relevanten Stellen im Dokument führen.

Die wahre Stärke zeigt sich, wenn man mit mehreren Dokumenten gleichzeitig arbeitet. Gemini findet Zusammenhänge, kombiniert Informationen und zieht Vergleiche.

In Google-Beispiel-Notebooks, etwa zur Erfindung der Glühlampe oder speziellen Pilzen, kann man dies gut testen. Aber das Tool ist nicht nur für wissenschaftliche Zwecke nützlich. Es hilft auch bei alltäglichen Aufgaben wie Reiseplanung, indem es Tickets, Dienstleistungen, Karten und Werbeprospekte analysiert und Pläne oder Vergleiche erstellt. Ich habe beispielsweise eine Sammlung von Anleitungen für technische Geräte hochgeladen, die Gemini verstand und kombinierte, um mir zu helfen.

NotebookLM ist vielleicht nicht für jede*n geeignet und auch nicht für alle simplen Organisationsaufgaben. Aber in Situationen, in denen man eine solche Unterstützung braucht, lohnt sich ein Ausprobieren definitiv.

Quelle

OpenAIs Sora bekommt Konkurrenz: Zwei spannende KI-Modelle vorgestellt

Seit mehreren Monaten warten wir nun alle gespannt auf die Veröffentlichung von OpenAIs AI-Video-Tool Sora. Überraschend, aber weitestgehend unbeactet, hat Google am 14. Mai 2024 mit Deepmind ein eigenes Tool präsentiert: Veo!

Veo ermöglicht es, mit einfachen Prompts Videos von einer Länge bis zu einer Minute zu generieren. Diese Videos sehen erstaunlich realistisch aus und bieten durch präzise Prompts eine hohe Kontrolle über den Inhalt. Bereits jetzt sind viele Creators, Filmemacher und Youtuber begeistert.

Veo: Googles Antwort auf Sora

Google hat mit Veo ein beeindruckendes Tool zur Videogenerierung vorgestellt, das Videos in 1080p-Auflösung und verschiedenen cineastischen Stilen erzeugen kann. Besonders bemerkenswert ist, dass Veo eine tiefe Verständnis von natürlicher Sprache und visueller Semantik besitzt. So können Nutzer*innen detaillierte und präzise Videoinhalte erstellen, die ihrer kreativen Vision genau entsprechen.

Ein Beispiel für die Vielseitigkeit von Veo ist die Möglichkeit, filmische Begriffe wie „Zeitraffer“ oder „Luftaufnahmen“ zu nutzen, um realistische und kohärente Aufnahmen zu erzeugen. Menschen, Tiere und Objekte bewegen sich dabei auf eine Weise, die der Realität sehr nahekommt. Google arbeitet eng mit Filmemachern und Creators zusammen, um das Modell weiter zu verbessern und sicherzustellen, dass es den Anforderungen der kreativen Gemeinschaft entspricht.

Imagen 3: Fortschrittliche Text-zu-Bild-Generierung

Parallel zur Einführung von Veo hat Google auch Imagen 3 präsentiert, das fortschrittlichste Text-zu-Bild-Modell des Unternehmens. Imagen 3 setzt neue Maßstäbe in der Bildgenerierung, indem es fotorealistische, lebensechte Bilder mit einer beeindruckenden Detailtreue erzeugt. Dieses Modell ist in der Lage, selbst komplexe und detaillierte Prompts präzise umzusetzen, was es besonders vielseitig und nützlich macht.

Ein bedeutender Fortschritt von Imagen 3 ist die verbesserte Fähigkeit zur Darstellung von Text, was bisher eine Herausforderung für Bildgenerierungsmodelle darstellte. Dies eröffnet neue Möglichkeiten für personalisierte Nachrichten und Präsentationen.

Kollaborationen und kreative Experimente

Google hat die Einführung von Veo und Imagen 3 genutzt, um verschiedene Kollaborationen mit der Kreativ- und Musikbranche zu starten. Gemeinsam mit YouTube und renommierten Künstlern wie Wyclef Jean, Justin Tranter und Marc Rebillet entwickelt Google die Music AI Sandbox, eine Suite von Musik-KI-Tools, die neue kreative Möglichkeiten eröffnet. Diese Tools ermöglichen es Künstler*innen, neue instrumentale Abschnitte zu erstellen und Klänge auf innovative Weise zu transformieren.

Google legt großen Wert darauf, die Entwicklung und den Einsatz seiner KI-Modelle verantwortungsvoll zu gestalten. Das Unternehmen hat umfassende Sicherheitsprüfungen und Filtermechanismen implementiert, um sicherzustellen, dass die generierten Inhalte sicher und verantwortungsvoll genutzt werden können. Ein Beispiel hierfür ist SynthID, ein Tool, das digitale Wasserzeichen in AI-generierte Inhalte einbettet, um deren Herkunft und Authentizität zu gewährleisten.

Weitere Informationen dazu bei Google.

Mein Fazit

Mit der Einführung von Veo und Imagen 3 zeigt Google, dass es bereit ist, die kreativen Möglichkeiten von generativer KI auf ein neues Niveau zu heben und gleichzeitig sicherzustellen, dass diese Technologien verantwortungsvoll eingesetzt werden. Die Zukunft der kreativen Inhalte könnte durch diese neuen Werkzeuge maßgeblich geprägt werden.

Zwei neue Video-KIs aus China!

OpenAIs Sora hat mit „Kling AI“ und „Vidu“ aus China weitere starke Konkurrenz bekommen.

Kling, entwickelt von der Tech-Firma Kuaishou, erzeugt beeindruckende Videos, die Sora in Qualität und Kohärenz übertreffen sollen. In sozialen Medien wurde viel über die beeindruckenden Ergebnisse berichtet. Wer Kling testen möchte, braucht eine spezielle App, eine chinesische Telefonnummer und muss sich auf eine Warteliste setzen lassen.

Kling AI kann bis zu zwei Minuten lange Videos mit einer Auflösung von 1080p und einer Framerate von 30fps produzieren. Im Vergleich dazu verlieren Videos von Sora nach etwa zehn Sekunden an Realismus. Eine Nutzerin auf X berichtete, dass die Erstellung der Videos mit Kling nicht länger als drei Minuten dauert.

Kuaishou erklärt in einer FAQ, dass Kling ein „3D Space-time Attention“-Modell verwendet, das räumliche und zeitliche Informationen kombiniert, um hochauflösende Bilder zu erzeugen. Zudem ist Kling in der Lage, physikalische Eigenschaften der realen Welt korrekt zu simulieren. Diffusionsmodelle werden ebenfalls eingesetzt, wodurch auch fiktive Inhalte, wie ein Fahrrad fahrender Panda, erstellt werden können. (Quelle)

Auf YouTube findet sich dazu ein schönes Vergleichsvideo mit OpenAIs Sora:

Vidu dagegen wird von Shengshu Technology und der Tsinghua-Universität entwickelt und kann Vidu 16-sekündige Clips in 1080p-Auflösung mit nur einem Klick generieren. Diese Ankündigung fand auf dem Zhongguancun Forum 2024 in Peking statt, wo Vidu als starker Konkurrent zu OpenAIs Sora positioniert wurde. (Quelle)

Vidu basiert auf einer Universal Vision Transformer (U-ViT) Architektur, die es ermöglicht, die reale physische Welt mit Multi-Kamera-Ansichten zu simulieren. Diese Architektur wurde von Shengshu Technology im September 2022 entwickelt und ist somit älter als die Diffusion Transformer (DiT) Architektur von Sora. Während Vidu 16-sekündige Videos produziert, kann Sora im Vergleich dazu 60-sekündige Clips erstellen.

Das Modell kann Videos mit komplexen Szenen erzeugen, die den physikalischen Gesetzen der realen Welt entsprechen. Dazu gehören realistische Beleuchtung und Schatten sowie detaillierte Gesichtsausdrücke. Vidu zeigt zudem eine reiche Vorstellungskraft, indem es nicht existierende, surreale Inhalte mit Tiefe und Komplexität kreiert. Dank der Multi-Kamera-Fähigkeiten kann Vidu dynamische Aufnahmen erstellen, die nahtlos zwischen Totalen, Nahaufnahmen und Halbnahen wechseln.

Spätestens jetzt ist auch klar, dass OpenAI mit Sora nichts übertrieben oder gefaked hat...

Das wird also eine wirklich verrückte Zukunft in Sachen Video-KI!

So viel von mir in diesem Monat, ich hoffe wir sehen uns Anfang Juli in meinem Onlinekurs!

Nochmal das Wichtigste zusammgefasst:

???? Jetzt geht’s los: Ab dem 03. Juli starte ich mit einem Kompaktkurs, der ein dringendes Bedürfnis vieler von euch adressiert!

???? SEO verändert sich rasant: Nicht nur in Sachen Content-Produktion und Analyse, sondern vor allem durch die Integration von Künstlicher Intelligenz und maschinellem Lernen in Suchmaschinen.

???? Mit 20 Jahren SEO-Erfahrung bin ich weiterhin aktiv und stets am Puls der Zeit.

???? Onlinekurs zur Zukunft der SEO:

 • ???? Grundlagen von ML, KI und LLMs: Verstehe die Technologien hinter modernen Suchmaschinen.

 • ???? KI-basierte Suchen: Erfahre, wie Suchmaschinen wie new bing, You, perplexity und Google SGE wirklich funktionieren.

 • ????️ Einflussmöglichkeiten und Techniken: Lerne, wie du diese neuen Suchtechnologien beeinflussen kannst.

 • ???? Zukunft der SEO: Was sind LLMO oder GenAIO? Ist das der nächste Schritt in der SEO?

 • ???? Auswirkungen auf SEO und Web-Publishing: Wie beeinflussen diese Technologien Nutzerverhalten, Traffic und Geschäftsmodelle?

 • ???? Orientierung im Umbruch: Lerne, Bullshit und Halbwissen von gesicherter Erkenntnis zu unterscheiden.

 • ???? Weiterbildung für eine erfolgreiche Karriere: Bereite dich optimal auf die kommenden Veränderungen in der SEO-Branche vor.

???? Kursdetails:

 • 1 Online-Kurs

 • 5 Wochen

 • 15 Lektionen

 • 5 Live-Sessions

???? Einführungspreis: 800 EUR (nur kurze Zeit!)

???? Das Beste: Die Kosten für diesen Kurs werden vollständig auf eine Teilnahme der KI-Masterclass angerechnet!

???? Nächste Kohorte: 3. bis 31. Juli 2024

???? Sichere dir jetzt deinen Platz und bleibe am Puls der Zeit!

facebook  linkedin  youtube 
AFAIK
Inhaber Kai Spriestersbach
Galgenäcker 7, 97903 Collenberg
Impressum: afaik.de/impressum

Falls Du Dich fragst, wieso Du diesen Newsletter erhältst:

Aus SEARCH ONE wurde AFAIK.

Du hast Dich in der Vergangenheit für meinem Newsletter angemeldet, damals wahrscheinlich noch unter search-one.de. Mittlerweile heißt mein Blog jedoch AFAIK, weshalb auch der Absender meiner Newsletter nun von [email protected] auf [email protected] umgestellt wurde.

Kai Spriestersbach