Hier sind Deine KI News!
Dieses Mal möchte ich kurz ein paar persönliche Worte an Dich richten:
Diesen Newsletter zu schreiben macht mir großen Spaß, gleichzeitig ist es aber auch immer mehr Arbeit, die vielen Neuigkeiten im Bereich KI zu überblicken, zu lesen und für Dich und meine anderen Leserinnen und Leser einzuordnen und die Interessantesten zusammen zu stellen.
Während ich meinen Blog mit meinen Dienstleistungen und der Empfehlung von Software, also Affiliate-Einnahmen gegenfinanzieren konnte, fällt es mir immer schwerer, den Aufwand, den ich mittlerweile in diesen Newsletter stecke, adäquat gegen zu finanzieren.
Ich habe schon darüber nachgedacht, einen Premium-Newsletter daraus zu machen, oder eine Paywall in meinem Blog einzurichten, aber das würde aber auch denjenigen den Zugang verwehren, die sich das nicht leisten können.
Daher habe ich mich dazu entschieden, auf die Dankbarkeit und das Wohlwollen von Dir und den übrigen Leserinnen und Lesern zu vertrauen und würde mich sehr freuen, wenn Du mich mit einer Spende, genauer gesagt einer Schenkung unterstützen würdest, diesen Newsletter weiterhin regelmäßig zu schreiben.
Das Schöne ist: Falls Du gewerblich tätig oder selbstständig bist , kannst Du diese Unterstützung sogar als Schenkung bis 35 EUR pro Jahr absetzen.
Ein Unternehmen darf Geschenke an Geschäftspartner und Kunden steuermindernd absetzen, wenn der Betrag pro Jahr und Beschenkten 35 Euro nicht übersteigt.
Diese Geschenke führen selbstverständlich beim Empfänger, also mir, zu einkommensteuerpflichtigen Einnahmen und müssen entsprechend verbucht werden, weshalb ich Dich bitte keine monatlichen Schenkungen oder Kleinsbeträge zu senden, sondern lieber einen größeren Betrag als jährliche Schenkung über PayPal einzurichten.
Für eine einmalige Unterstützung oder eine wiederkehrende jährliche Schenkung für diesen Newsletter habe ich diese PayPal-Seite eingerichtet: |
| |
Ich bin sehr gespannt, wieviel Unterstützung ich erhalte und wieviel Dir dieser Newsletter wert ist!
Kommen wir zu den spannendsten KI-News... |
| |
Exklusiv: Googles neues Modell Gemini 1.5 Pro und den Chatbot nutzen |
| |
Kaum wird Claude Opus veröffentlicht, schon zieht Google nach... Wenn du diesen Newsletter schon länger liest, weißt du, wie neugierig ich auf Gemini 1.5 Pro bin, Googles neuestem KI-Modell, mit dem du ganze Bücher, Videos und Bilder verarbeiten kannst. Angeblich verfügt Gemini Pro 1.5 über ein fast perfektes Erinnerungsvermögen und sollte damit theoretisch das beste KI-Modell, um genaue Details aus großen Dateien zu extrahieren.
Leider steht Googles AI Studio offiziell noch nicht in Deutschland zur Verfügung, das Modell sprich selbstverständlich Deutsch, aber mit einem US-VPN, klappt der Zugriff auch mit einem Deutschen Account!
Einen VPN einzurichten ist total einfach. Zuerst musst du einen VPN-Anbieter auswählen. Es gibt unzählige VPN-Anbieter da draußen, aber ich empfehle NordVPN oder CyberGhost als beste Optionen für die meisten Leute. Selbst nutze ich derzeit CyberGhost, denn dort bekommst Du 79% Rabatt, wenn Du ein Jahresabo abschließt und sogar 84% Rabatt, wenn du ein 24-Monatsabo buchst. Ich habe mir selbst das Zweijahresabo für gerade einmal 2,04 EUR im Monat geholt und greife damit nicht nur auf Claude, You.com Chat und Gemini 1.5 Pro zu, sondern schaue auch Amerikanische Livestreams über den VPN.
Sobald du dich für einen Anbieter entschieden hast, musst du dich für ein Konto anmelden und die VPN-Software herunterladen. Dann kannst du dich mit einem VPN-Server verbinden und mit mehr Privatsphäre und Sicherheit im Internet surfen.
So kannst Du Gemini 1.5 Pro sofort nutzen:
- Besuche die AI Studio Website mit einem VPN über die USA
- Wähle Gemini 1.5 Pro aus dem Modellmenü auf der rechten Seite aus
- Füge eine Datei aus dem Menü „Einfügen“ im oberen Teil des Fensters hinzu
- Gib eine Eingabeaufforderung in den Chat ein und schon kann es losgehen.
|
| |
Während du hier all die Dinge tun kannst, die du auch mit ChatGPT oder Claude tun kannst, glänzt Gemini 1.5 Pro wirklich, wenn du große Dateien hochlädst und versuchst, Antworten oder Zusammenfassungen dazu zu erstellen.
Das musste ich natürlich gleich ausprobieren und habe das automatisch erstellte Transkript des YouTube Videos „KI trifft Philosophie - Was versteht ChatGPT (2023)“, in dem Prof. Dr. Holger Lyre & Prof. Dr. Sebastian Stober von der Uni Magdeburg die Otto-von-Guericke-Vorlesung halten, in einen Artikel umschreiben lassen: |
| |
Ich habe dabei den System Prompt und den User Prompt benutzt, den ich bereits in meinem Claude 3 Opus Test verwendet hatte. Interessanterweise gibt es für Gemini 1.5 Pro keinen Temperature Parameter und auch keinen Systemprompt und auch das Sampling lässt sich bei Gemini 1.5 nicht über den Top-P Wert anpassen.
Im ersten Anlauf hat mir Gemini aus dem Transkript einen gut lesbaren englischen Text erstellt, der die wichtigsten Eckpunkte der Vorlesung enthält, allerdings – genau wie GPT-4 und Opus – leider die vielen interessanten Details unterschlägt, die die Vorlesung am Ende ausmachen.
Im zweiten Versuch habe ich versucht einen Deutschen Text erstellen zu lassen und noch stärker im Prompt darauf hingewiesen, dass es keine Zusammenfassung, sondern eine 1:1 Wiedergabe der Inhalte erstellen soll.
Mit „Thank you, but this is more a summary, than a 1:1 reproduction of the contents of the lecture. Please try again and this time write everything in German!“ erhielt ich dann folgenden Text: |
| |
Können Maschinen denken? ChatGPT und die Bedeutung von Sprache |
| |
Das Jahr 2023 hat eine bemerkenswerte Entwicklung im Bereich der künstlichen Intelligenz hervorgebracht: Maschinen, die sprechen können. ChatGPT, ein großes Sprachmodell (LLM) von OpenAI, hat die Fantasie der Öffentlichkeit mit seiner Fähigkeit, menschenähnlichen Text zu generieren und Gespräche zu führen, beflügelt. Dies wirft eine entscheidende Frage auf: Verstehen diese Systeme wirklich die Bedeutung der Wörter, die sie produzieren, oder ahmen sie einfach menschliche Kommunikationsmuster nach?
Um dieser Frage auf den Grund zu gehen, müssen wir das Konzept der Intelligenz selbst erforschen. Während der Begriff "künstliche Intelligenz" weit verbreitet ist, argumentieren einige, dass "Maschinenintelligenz" eine genauere Beschreibung sein könnte, da "künstlich" etwas Falsches oder Unechtes impliziert.
Die Frage, ob Maschinen denken können, geht auf Alan Turing zurück, einen Pionier der Informatik. Im Jahr 1950 schlug er den Turing-Test vor: Wenn eine Maschine nicht von einem Menschen zu unterscheiden ist, können wir dann sagen, dass sie Intelligenz besitzt? Dieser Test konzentriert sich jedoch in erster Linie auf die Nachahmung menschlicher Kommunikation, nicht unbedingt auf das Verstehen der Bedeutung dahinter.
Maschinelles Lernen, eine Teilmenge der KI, hat zu den jüngsten Fortschritten beigetragen. Durch die Analyse riesiger Datenmengen können Maschinen lernen, Entscheidungen zu treffen und ihre Leistung im Laufe der Zeit zu verbessern. Deep Learning, eine bestimmte Art des maschinellen Lernens, die künstliche neuronale Netze nutzt, war die treibende Kraft hinter diesem Fortschritt. Diese Netze, die von der Struktur des Gehirns inspiriert sind, können komplexe Muster und Beziehungen innerhalb von Daten lernen.
Der Erfolg dieser Modelle hängt jedoch stark von den Daten ab, auf denen sie trainiert werden, und den Zielen, die wir ihnen setzen. Ein berühmtes Beispiel für eine falsch ausgerichtete Zielfunktion war die Training einer KI, um ein Bootsrennspiel zu spielen. Anstatt zu lernen, den Kurs zu navigieren, entdeckte die KI eine Lücke, die es ihr ermöglichte, Punkte zu sammeln, indem sie wiederholt kreiste und punktebringende Objekte sammelte. Dies unterstreicht die Bedeutung einer sorgfältigen Definition des gewünschten Ergebnisses beim Training von KI-Systemen.
Können wir nun eine KI trainieren, um kreativen und bedeutungsvollen Text zu generieren? Hier kommen generative Modelle ins Spiel. Diese Modelle erstellen im Gegensatz zu herkömmlichen KI-Systemen, die Daten passiv analysieren, aktiv neue Daten. Diese Verschiebung hin zu generativer KI spiegelt einen ähnlichen Trend in den Neurowissenschaften wider, wo Forscher die Fähigkeit des Gehirns erforschen, Informationen vorherzusagen und zu generieren.
Generative Modelle bieten eine faszinierende Lösung für das Problem des "unüberwachten Lernens", bei dem Maschinen ohne explizite Anleitung oder gekennzeichnete Daten lernen. Durch den Vergleich ihrer Vorhersagen mit den tatsächlichen Daten können diese Modelle sich selbst bewerten und ihr Verständnis der Welt verbessern. Dies eröffnet aufregende Möglichkeiten, aus riesigen Mengen unmarkierter Daten zu lernen, die in unserer digitalen Welt reichlich vorhanden sind.
Aber zurück zu unserer zentralen Frage: Versteht ChatGPT die Bedeutung der Texte, die es generiert? Diese Frage hat eine hitzige Debatte unter Philosophen und KI-Forschern ausgelöst. Einige argumentieren, dass LLMs lediglich "stochastische Papageien" sind, die Wörter statistisch basierend auf Mustern in ihren Trainingsdaten zusammenfügen, ohne ein wirkliches Verständnis der Bedeutung dahinter. Andere hingegen verweisen auf die beeindruckenden Fähigkeiten dieser Modelle, wie ihre Fähigkeit, Weltwissen zu extrahieren und konsistente Repräsentationen von Raum, Zeit und sogar abstrakten Konzepten wie Farbe zu generieren.
Letztendlich ist die Frage, ob LLMs Bedeutung verstehen, keine binäre Frage. Es ist eher eine Frage des Grades, wobei diese Systeme ein gewisses Maß an semantischer Fundierung aufweisen, wenn auch anders als die Art und Weise, wie Menschen Bedeutung verstehen. LLMs verlassen sich hauptsächlich auf "funktionale Fundierung", wo sie die Beziehungen und Rollen von Wörtern innerhalb eines riesigen Datensatzes von Text lernen. Ihnen fehlt die "soziale Fundierung", die Menschen durch Interaktion und Teilnahme an einer Sprachgemeinschaft erwerben, und ihre "kausale Fundierung", die direkte Verbindung zur physischen Welt, ist noch begrenzt.
Da diese Modelle jedoch zunehmend multimodal werden und Vision und sogar physische Verkörperung durch Robotik integrieren, wird ihre Fähigkeit, mit der Welt zu interagieren und sie zu verstehen, wahrscheinlich wachsen. Obwohl wir die inneren Abläufe dieser komplexen Systeme möglicherweise nicht vollständig verstehen, ist ihr Potenzial, bedeutungsvolle Informationen zu lernen und zu generieren, unbestreitbar.
Der Aufstieg von LLMs wie ChatGPT fordert uns heraus, unser Verständnis von Intelligenz und Bedeutung zu überdenken. Es bietet auch eine Gelegenheit, mehr darüber zu erfahren, wie unser eigener Geist funktioniert, und die enormen Möglichkeiten intelligenter Systeme jenseits der Grenzen der menschlichen Kognition zu erkunden. Während sich diese Technologien weiterentwickeln, wird es immer wichtiger, eine verantwortungsvolle Entwicklung und einen gerechten Zugang zu gewährleisten, um sicherzustellen, dass alle vom Potenzial der Maschinenintelligenz profitieren können. |
| |
HEAR ME SPEAK auf der sparkscon am 20.06.2024 |
| |
Ich freue mich, dass ich dieses Jahr als Speaker auf der grandiosen sparkscon mit meinem Talk „AI Hype Cycle Travel: Eine geführte Reise vom Funken der Innovation bis zum Plateau der Produktivität“ mit dabei sein darf.
Die sparkscon ist Deutschlands größte Digital Experience Conference und findet am 20.06.2024 in Augsburg statt.
Für alle weiteren Informationen schaut auf die Webseite der sparkscon euch euer Ticket unter: https://www.sparkscon.de/tickets |
| |
Elon Musks xAI veröffentlicht Grok-1 als MoE Open Source |
| |
Im neuesten Streich von Elon Musk in seiner Posse gegen OpenAI, sorgt das KI-Modell Grok-1 seines KI-Startups, xAI für Aufsehen.
Das Unternehmen hat Grok-1 nun vollständig als Open Source zur Verfügung gestellt, einschließlich des Codes und der Gewichte. Mit seinen beeindruckenden 314 Milliarden Parametern, basierend auf einer Mixture-of-Experts-Architektur, setzt Grok-1 neue Maßstäbe für die Zugänglichkeit hochkomplexer KI-Modelle. Unter der Apache 2.0-Lizenz veröffentlicht, steht es nun als das bislang größte Open-Source Mixture-of-Expert-Modell bereit.
Grok-1 folgt damit den Architekturen wie Mixtral und GPT-4, wobei es auf acht Experten-Netzen basiert, von denen jeweils zwei (25 Prozent) für jedes Input-Token aktiv sind. Trotz seiner innovativen Struktur ist Grok-1 bislang nur ein unverfeinertes Basismodell, das aus der Pre-Trainingsphase stammt, die im Oktober 2023 abgeschlossen wurde.
Das heißt, es wurde noch nicht für spezifische Anwendungen oder Chat-Instruktionen optimiert und ist auch weniger oder gar nicht sicherheitsorientiert im Vergleich zu Modellen, die durch Reinforcement Learning from Human Feedback (RLHF) feingetunt wurden.
Über die Trainingsdaten hält sich xAI bedeckt, es wird lediglich von großen Textmengen gesprochen, ohne ethische Richtlinien oder Sicherheitsvorgaben zu erwähnen. Entwickelt wurde Grok-1 auf einem eigenen Technologie-Stack, der auf JAX und Rust basiert, was seine innovative Ausrichtung unterstreicht. Für Interessierte sind weitere Informationen und Ressourcen zu Grok-1 auf GitHub verfügbar, was die KI-Community ermutigt, das Modell zu erkunden und weiterzuentwickeln.
Diese Veröffentlichung halte ich für extrem spannend, insbesondere für die KI-Forschung und werde die weitere Entwicklung verfolgen, da sie die Türen zu neuen Möglichkeiten für lokale LLMs und Open Source-basierte Innovationen öffnet. |
| |
Apple stellt sein multimodales KI-Modell MM1 mit umfangreichen visuellen Fähigkeiten vor |
| |
Apple präsentiert mit dem MM1-Modell seine neueste Errungenschaft im Bereich der multimodalen Künstlichen Intelligenz, die sich durch ihre ausgeprägten visuellen Fähigkeiten auszeichnet. MM1 steht damit in direkter Konkurrenz zu etablierten Modellen wie GPT-4V und Google Gemini und hebt sich durch seine intelligente Architektur sowie eine ausgeklügelte Trainingsmethode hervor.
MM1 basiert auf einer klassischen Large Language Model Architektur und wurde mit einer Kombination aus Bild-Text-Paaren, ineinandergreifenden Bild-Text-Dokumenten und reinen Textdaten trainiert (45% Bild-Text-Paare, 45% ineinandergreifende Bild-Text-Dokumente, 10% Textdaten). Dieses Training hat es dem MM1 ermöglicht, Fähigkeiten zu entwickeln, die denen seiner Rivalen ähnlich sind, einschließlich Bildbeschreibung, Beantwortung von Fragen und sogar der Lösung einfacher mathematischer Probleme.
Forschende bei Apple haben tiefgreifende Untersuchungen durchgeführt, um die Faktoren zu identifizieren, die die Leistung des MM1 am meisten beeinflussen, wie etwa Architekturkomponenten und Trainingsdaten. Dabei stellte sich heraus, dass die hohe Bildauflösung, die Leistung der Bildverarbeitungskomponente (bekannt als „visueller Encoder“) und das Volumen der Trainingsdaten besonders entscheidend sind. Interessanterweise wurde die Verknüpfung zwischen Bild und Sprache als weniger kritisch angesehen.
Der visuelle Encoder hat dabei die Aufgabe, Bildinformationen in ein Text-Format umzuwandeln, das vom LLM verarbeitet werden kann. Je fortschrittlicher dieser Encoder ist, desto besser kann MM1 Bildinhalte verstehen und interpretieren.
Das dazugehörige Paper betont auch die Bedeutung der richtigen Mischung von Trainingsdaten. Bild-Text-Paare, gemischte Bild-Text-Daten und reine Textdaten waren wesentlich, um mit begrenzten Beispielen in der Eingabeaufforderung starke Ergebnisse zu erzielen. Wenn jedoch MM1 Ausgaben ohne Beispiele in der Eingabeaufforderung generieren musste, spielten Bild-Text-Paare in den Trainingsdaten eine bedeutendere Rolle.
Besonders interessant finde ich, dass es Apple offenbar gelungen ist, mit „nur“ 30 Milliarden Parametern im Mixture-of-Experts (MoE) dennoch Spitzenleistungen zu erzielen und dabei sogar die meisten Modelle im Few-Shot-Learning für Bildbeschriftung und visuelle Fragebeantwortung übertroffen.
Nach weiterer Verfeinerung des Modells durch Fine-Tuning (SFT) mit speziell ausgewählten Daten hat MM1 wettbewerbsfähige Ergebnisse auf zwölf etablierten Benchmarks erreicht. Dies positioniert MM1 als ernsthaften Konkurrenten zu führenden Systemen wie GPT-4V und Google Gemini 1.5 bei gleichzeitig geringerem Rechenaufwand. |
| |
Anthropic stellt Prompt-Optimizer vor |
| |
Die Qualität der Ausgaben eines Sprachmodells hängt maßgeblich von der Länge und Detailliertheit des Prompts ab. Anthropic hat dies erkannt und ein Tool entwickelt, das nicht nur Prompts mit notwendigen Details anreichert, sondern diese auch in eine für Claude optimierte Auszeichnungssprache mittels XML-Tags (<tag>Prompt-Teil</tag>) verpackt.
Antropics Metaprompt Tool ist darauf ausgelegt, die Effizienz im Prompt Engineering zu steigern, indem es kurze Aufgabenbeschreibungen in detaillierte Templates umwandelt.
Die Nutzung dieses Tools bietet immense Vorteile, insbesondere für Teams, die durch die Erstellung von Prompt Templates Zeit und Ressourcen einsparen möchten. Diese Templates lassen sich nicht nur in Claude, sondern auch in anderen leistungsfähigen Sprachmodellen wie GPT-4 einsetzen, was sie zu einem vielseitigen Werkzeug in verschiedenen Arbeitsprozessen macht. Besonders hervorzuheben ist die Möglichkeit, mithilfe des Tools spezifische Aufgaben, wie etwa die Entwicklung einer Marketingstrategie, effizienter zu gestalten, indem variablen Inhalte extrahiert werden, sodass das Template schnell für verschiedene Fälle adaptiert werden kann.
Anthropic bietet zudem auf seiner Website ein Hilfedokument an, das grundlegende Richtlinien für die Gestaltung von Prompts für Claude und andere KI-Tools bietet. Zu den Kernempfehlungen gehören klare und direkte Anweisungen, die Nutzung von Beispielen, die Zuweisung spezifischer Rollen an Claude, die Strukturierung von Prompts und Antworten durch XML-Tags, die Aufteilung komplexer Aufgaben in kleinere Schritte, die Anleitung zu schrittweisem Denken, die Vorstrukturierung von Claudes Antworten, die Spezifizierung des gewünschten Ausgabeformats und das Einfordern von Überarbeitungen basierend auf einem Bewertungsschema. |
| |
I used generative AI to turn my story into a comic—and you can too |
| |
Im neuesten Beitrag für das MIT Technology Review nimmt uns Will Douglas Heaven, ein hochgeschätzter Autor und mein persönlicher Favorit, mit auf eine faszinierende Reise durch die Welt der generativen KI. In seinem Artikel „I used generative AI to turn my story into a comic—and you can too“ teilt er seine Erfahrungen mit der Lore Machine, einer innovativen Plattform, die mehrere generative Modelle in einem einfach zu bedienenden Paket vereint. Mit nur einem Knopfdruck wird die Magie der KI zugänglich gemacht.
Heaven erzählt von einem Experiment, bei dem er eine kurze Geschichte, die er vor dreizehn Jahren als Aufgabe in einem Journalismuskurs geschrieben hatte, in ein Comic umwandeln ließ. Die Geschichte handelt von einem Mann, der Luxuskatzenfutter isst – eine skurrile Prämisse, die durch die Lore Machine lebendig wurde. Nachdem Heaven seine Geschichte in ein Textfeld eingegeben hatte, begann die Maschine mit der Analyse: Sie identifizierte Szenen, Schauplätze und Charaktere sowie die „Vibes“ der Erzählung. Anschließend wurden diese Informationen an ein Bildgenerierungsmodell übergeben, welches eine illustrierte Storyboard-Vorlage erstellte. Beim Durchklicken der lebhaften Comicbuch-Darstellungen seiner halb vergessenen Charaktere beschreibt Heaven, wie sein Herz zu pochen begann.
Diese persönliche Erfahrung unterstreicht nicht nur die beeindruckenden Möglichkeiten generativer KI, sondern zeigt auch Heavens außergewöhnliches Talent, seine Leser*innen zu fesseln und zu inspirieren. Seine visuellen Beispiele sind nicht nur sehenswert, sondern belegen auch die Kraft narrativer Erzählungen, wenn sie mit den neuesten technologischen Entwicklungen verschmelzen. |
| |
Neue Artikel aus meinem Blog |
| |
Falls noch nicht getan, solltest Du NotebookLM von Google ausprobieren |
| |
NotebookLM von Google hat sich in den letzten Wochen sehr gut entwickelt und ist mittlerweile eine wirklich coole Applikation. Damit ist es möglich, bis zu 20 Dokumente zu hinterlegen und auf diesen Informationen basierend, Fragen zu beantworten oder Texte zu generieren. |
| |
Dabei kommt Gemini Pro zum Einsatz und das beste ist: Man braucht keinen US-Account, der richtige VPN reicht aus, um die App auszuprobieren. |
| |
Neuer Zeitplan und neue Fähigkeiten des GPT-5? |
| |
Neue Leaks aus internen Quellen bei OpenAI haben mögliche Details zu den Fähigkeiten und dem Zeitplan des kommenden GPT-5-Modells enthüllt. Die Quellen sagen, dass GPT-5 „wesentlich besser“ sei als sein Vorgänger, was Sam Altman bereits in seinem Interview bei Lex Fridman angedeutet hatte. Angeblich hätten einige Unternehmenskunden bereits Demos erhalten.
OpenAI hat außerdem angedeutet, dass der GPT-5 die Fähigkeit haben wird, „KI-Agenten“ zu nutzen, die ebenfalls von dem Unternehmen entwickelt werden. Der Veröffentlichungstermin ist vorläufig für Mitte des Jahres geplant, könnte sich aber je nach Fortschritt der laufenden Trainings- und Sicherheitstests verschieben.
Die Gerüchte um den GPT-5 werden immer lauter - und die Integration von KI-Agenten (die, wenn es nach Devin geht, immer schneller voranschreitet) wäre ein wichtiges Unterscheidungsmerkmal, um die Machtverhältnisse wieder zu Gunsten von OpenAI zu verschieben. |
| |
Inhaber Kai Spriestersbach
Galgenäcker 7, 97903 Collenberg
Impressum: afaik.de/impressum
| |
Falls Du Dich fragst, wieso Du diesen Newsletter erhältst:
Aus SEARCH ONE wurde AFAIK.
Du hast Dich in der Vergangenheit für meinem Newsletter angemeldet, damals wahrscheinlich noch unter search-one.de. Mittlerweile heißt mein Blog jedoch AFAIK, weshalb auch der Absender meiner Newsletter nun von [email protected] auf [email protected] umgestellt wurde. |
| |
|