KI in Kürze: Ihr Überblick, über die wichtigsten KI-News 13.08.2025

Dieser Artikel ist Teil des Newsletters KIckstart von HubSpot

So nutzen Sie KI für die Datenanalyse
Timo Zingsheim
Timo Zingsheim

Aktualisiert:

GPT-5: Das neues Modell von OpenAI ist da und das ist neu  

Und? Schon getestet? OpenAI hat am 7. August GPT‑5 veröffentlicht – ein multimodales Modell, das Text, Bilder, Audio und Video versteht. Ok, hört sich erst mal nach GPT-4 an, oder? In den letzten Tagen nach dem Launch wurde zwar viel Kritik am neuen Modell geäußert, es gibt aber auch beeindruckende Fortschritte.

  • Bessere Kontextlänge: GPT-5 hat, einfach ausgedrückt, eine längere Aufmerksamkeitsspanne (bis zu 1 Mio. Tokens). Es kann so längere und komplexere Dinge besser untersuchen und verstehen.
  • Codeverständnis: In Demos hat GPT-5 gezeigt, wie schnell es programmieren kann. Komplexe Apps und Webseiten mit funktionierenden Animationen und ansprechender Benutzeroberfläche wurden innerhalb von Sekunden erzeugt – ein großer Fortschritt zu GPT-4.
  • Akademisches Wissen: GPT‑5 kann komplexe wissenschaftliche und mathematische Aufgaben auf Hochschulniveau präzise lösen.
  • Bessere Tool-Nutzung: Das neue Modell interagiert eigenständig mit externen Tools wie Code-Editoren oder Datenbanken, um Aufgaben effizient auszuführen.
Neu ist außerdem ein intelligenter Router, der automatisch zwischen verschiedenen Modellvarianten wie „Thinking“ und „Fast“ wechselt. Nutzer:innen können das Verhalten durch wählbare Persönlichkeiten steuern. Während die Leistungsfähigkeit im Großen und Ganzen überzeugt, gibt es jedoch noch einige Aspekte, die von OpenAI behoben werden müssen oder schon behoben wurden, denn GPT-5 neigt immer noch zu Halluzinationen, Inkonsistenzen und gibt teils auch auf Dinge eine Antwort, bei denen das Modell laut OpenAI nicht antworten dürfte und eine Gefahr darstellen.

Das neue Routing ist zudem bei sehr vielen Nutzer:innen auf Unzufriedenheit gestoßen: Es gab keine Wahlfreiheit mehr zwischen anderen Modellen. Nutzer:innen auf Social Media und in Foren beklagen, dass GPT‑5 kürzere, weniger ansprechende Antworten liefert und weniger Persönlichkeit zeigt als Vorgängermodelle. Der Output war also in gewisser Weise im Format vorbestimmt. Nach all dem Gegenwind ist die Wahl zwischen den Modellen wieder möglich.

Meme gegenueberstellung GPT5 & GPT4

Quelle: Reddit 

Die Zoom-KI hat es schon und andere werden folgenden: GPT‑5 wird bald auch in Microsoft- und Apple-Produkte integriert. Beide Unternehmen nutzen ChatGPT für ihre Produkte Co-Pilot und Apple Intelligence.

Quelle: Open AI – Introducing GPT-5


Microsoft testet neuen „Copilot-Modus“ im Edge-Browser

Microsoft rüstet seinen Edge-Browser mit einem KI-Modus auf, der mehr als nur smarte Suche verspricht: Der neue „Copilot Mode“ soll Browser, Chat und Suche in einem fließenden Erlebnis vereinen – inklusive Kontext über geöffnete Tabs, Sprachsteuerung und automatisierten Handlungsvorschlägen.

Noch ist der Modus experimentell und nur optional aktivierbar. Doch wer ihn nutzt, kann sich laut Microsoft auf weniger Reibung und mehr Fokus freuen.

Der ganze Browsing-Prozess wird in Kontext gesetzt: Copilot erkennt, woran man gerade arbeitet, und schlägt passende nächste Schritte vor – inklusive gespeicherter „Journeys“ zu laufenden Projekten.

Quelle: YouTube Microsoft Edge 

Mein Kollege York Karsten hat das ganze schon ausprobiert und hat eine erste Einschätzung: „Die Ergebnisse sind gar nicht schlecht. Vor allem auf Basis meiner offenen Tabs macht mir Copilot gute Vorschläge oder beantwortet spezifische Fragen zu meiner bisherigen Recherche. Not bad!" 

Doch was ist mit dem Datenschutz, wenn die KI alles mitliest? Laut Microsoft muss man dem neuen Feature zustimmen, um es zu nutzen, und die Kontrolle liegt weiterhin bei den Nutzer:innen. Der neue Modus ist ein guter Versuch, den Edge-Browser zu einem echten KI-Browser zu machen, der für alle zugänglich ist – im Gegensatz zu anderen KI-gestützten oder KI-basierten Browsern.

Quelle: Windows – Introducing Copilot Mode in Edge: A new way to browse the web, Thema beigetragen von York Karsten, Solutions Engineer @HubSpot


Schwedischer Premierminister nutzt ChatGPT für „eine zweite Meinung“

„Wir haben nicht für ChatGPT gestimmt“ – das bringt die aktuelle Debatte in Schweden auf den Punkt. Aber warum geht es? Der schwedische Premierminister Ulf Kristersson steht in der Kritik, denn: In einem Interview mit der Wirtschaftszeitung Dagens Industri hatte Kristersson offen zugegeben, regelmäßig generative KI-Tools wie ChatGPT und den französischen Dienst LeChat zu nutzen. Nicht für Entscheidungen, sondern „für eine zweite Meinung“, um herauszufinden, was andere in einer vergleichbaren Situation gemacht haben oder wie man bewusst gegensätzlich denken könnte. Hört sich erstmal harmlos und fortschrittlich an, was ist in gewisser Weise auch ist. Dieser Ansatz beweist Technologieoffenheit.

Aber das Problem liegt nicht in der Nutzung per se, sondern wofür. Wir alle kennen ChatGPT und wissen, dass das System zu Halluzinationen, Falschinformationen und Over-Confidence neigt, selbst wenn eine Sache falsch oder einfach nicht gut ist. Wenn KI in der Politik zur Beratung genutzt wird mahnen Forscher:innen vor Sicherheitsrisiken und dem Verlust politischer Eigenverantwortung.

Doch es gibt noch eine tiefere Ebene: Wieviel Einfluss dürfen Systeme haben, die Meinungen simulieren, aber keine Verantwortung tragen? Virginia Dignum, Professorin für KI an der Universität Umea bringt es auf den Punkt: KI ist nicht in der Lage, eine richtige Meinung zu politischen Ideen zu äußern – sie spiegelt lediglich die Ansichten jener wider, die sie entwickelt haben. Je mehr er sich bei einfachen Dingen auf KI verlässt, desto größer wird das Risiko, dem System zu viel zuzutrauen. Die Debatte ist eröffnet: Wie viel KI ist in der Politik okay?

Quelle: The Guardian – ‘We didn’t vote for ChatGPT’: Swedish PM under fire for using AI in role


Offizielles Breeze AI Tutorial 

 

Quelle: HubSpot DACH – YouTube


Ihr LLM kennt die Zukunft – wie Sprachmodelle mehrere Wörter vorausdenken

Achtung, es wird etwas technisch:
Was wäre, wenn Sprachmodelle schon längst wissen, was sie als Nächstes sagen – und wir sie einfach nur fragen müssten? Wie man inzwischen weiß, generieren LLMs das nächste Wort basierend auf Wahrscheinlichkeiten. Doch nun zeigt sich: Autoregressive Sprachmodelle wie GPT besitzen bereits ein implizites Wissen über mehrere kommende Wörter, noch bevor sie diese tatsächlich generieren. Genau das haben Forscher:innen von Apple jetzt belegt.

Ihre Idee: Man bringt das Modell dazu, nicht nur das nächste Wort vorherzusagen, sondern gleich mehrere auf einmal. Und das funktioniert erstaunlich gut – es spart nicht nur Zeit, sondern auch Rechenressourcen. Dafür kommen sogenannte Maskentokens zum Einsatz: Platzhalter, die ans Ende eines Textes gesetzt werden. Das Modell lernt dann, diese mit passenden Wörtern zu füllen. Dank einer Technik namens Gated LoRA bleibt die ursprüngliche Leistungsfähigkeit des Modells dabei vollständig erhalten – während es gleichzeitig in der Lage ist, mehrere Tokens in einem Schritt auszugeben. In Benchmarks aus Bereichen wie Mathematik oder Programmierung wurde so eine bis zu 5-fache Beschleunigung erreicht. Ein weiteres Highlight der Untersuchung ist der sogenannte quadratische Decoding-Mechanismus. Er sorgt dafür, dass bei jedem Generierungsschritt mehrere Tokens nicht nur erzeugt, sondern auch überprüft werden. Das steigert die Effizienz und ermöglicht deutlich paralleleres Arbeiten – etwa in Echtzeit-Anwendungen.

Kurz gesagt: Die KI der Zukunft schreibt nicht mehr Wort für Wort – sie denkt gleich mehrere Schritte voraus.

Quelle: arxiv – Your LLM Knows the Future: Uncovering Its Multi-Token Prediction Potential

Kostenloser Download: So nutzen Sie KI für die Datenanalyse

Verwandte Artikel

Nutzen Sie das Potenzial von KI bei der Datenanalyse, um Prozesse zu optimieren und schnell umsetzbare Erkenntnisse zu gewinnen.

JETZT KOSTENLOS HERUNTERLADEN