- Deutsche zweifeln an KI-generierten Medieninhalten – YouGov-Studie
- Die KI-Illusion des Denkens: Was Apples Reasoning-Studie über die Grenzen künstlicher Intelligenz verrät
- Apples neue KI-Strategie
- Next‑Gen Ad Creation: Canva holt sich MagicBrief
- “Stop Hiring Humans” – provokante Artisan‑AI‑Billboards in NYC
- Blue‑Collar meets AI: 40 % der Handwerksbetriebe nutzen KI
- Dieter Schwarz will Europas größtes KI-Zentrum aufbauen
- Google testet Audio Overviews in der Suche
![→ Registrieren Sie sich, um die KI-Tools von HubSpot auszuprobieren [Kostenlose Tools]](https://no-cache.hubspot.com/cta/default/53/98bed028-3705-4d09-8cf4-fefd0abf5314.png)
Deutsche zweifeln an KI-generierten Medieninhalten – YouGov-Studie
Die Art, wie wir Medieninhalte erstellen, konsumieren und bewerten, verändert sich. Eine umfassende YouGov-Studie vom Dezember 2024 bis Januar 2025 beleuchtet erstmals detailliert die deutsche Haltung zu generativer KI in der Medienlandschaft – mit teilweise überraschenden Ergebnissen.
Deutsche als europäische Skeptiker
Deutschland positioniert sich als einer der kritischsten Märkte beim Thema generative KI in Medien. Von den 1.001 befragten Deutschen äußern 37% negative Gefühle ("concerned" oder "skeptical") zur zunehmenden KI-Rolle in den nächsten zehn Jahren. Zum Vergleich: Der Durchschnitt aller 15 untersuchten Märkte liegt bei nur 29%.
Philipp Schneider, Head of Marketing DACH bei YouGov Deutschland, fasst die Herausforderung zusammen:
Generationenkluft bei KI-Akzeptanz
Millennials zeigen sich aufgeschlossener
Die Studie offenbart erhebliche generationsbedingte Unterschiede. Millennials sind mit 27% am optimistischsten bezüglich der KI-Entwicklung, während nur 21% Bedenken äußern. Gen Z folgt mit 23% Optimismus, zeigt jedoch mit nur 7% die geringste Besorgnis aller Altersgruppen.
Baby Boomer am kritischsten
Am anderen Ende des Spektrums stehen die Baby Boomer: 21% äußern Bedenken, während nur 14% optimistisch sind. Besonders auffällig: 15% der Baby Boomer fühlen sich "uneasy" bezüglich der KI-Entwicklung – der höchste Wert aller Generationen.
Quelle: YouGov
Falschinformationen als Hauptsorge
53% der Deutschen beunruhigt um Deepfakes
Die größte Sorge der Deutschen gilt Falschinformationen und Deepfakes (53%). Diese Besorgnis steigt bei Baby Boomern auf dramatische 63%, während nur 47% der Gen Z diese Befürchtung teilen.
Weitere zentrale Bedenken umfassen:
- Verlust der menschlichen Note (49%)
- Datenschutz und Datennutzung (39%)
- Informationsqualität (33%)
- Arbeitsplätze in Gefahr (33%)
Quelle: YouGov
Internationale Einordnung
Im globalen Vergleich zeigen sich Deutsche besonders skeptisch. Während in Indien nur 12% Sorgen bezüglich Falschinformationen äußern, liegt Deutschland mit 53% weit über dem internationalen Durchschnitt.
Nachrichtenkonsum und KI-Vertrauen
Mehr als die Hälfte misstraut KI-generierten News
54% der Deutschen vertrauen KI-generierten Nachrichten weniger als von Menschen erstellten Inhalten. Nur 9% vertrauen KI-News mehr, während 26% gleiches Vertrauen bekunden.
Besonders problematisch sehen Deutsche KI bei:
- Social Media Posts (54%)
- Bildmaterial (48%)
- Video-Content (44%)
- Geschriebenen Artikeln (41%)
Generationsunterschiede beim News-Vertrauen
Die Vertrauenskluft zwischen den Generationen ist erheblich: Während 21% der Millennials KI-generierten News mehr vertrauen als menschlich erstellten, sind es bei den Baby Boomern nur 4%. Umgekehrt misstrauen 66% der Baby Boomer KI-News, aber nur 38% der Millennials.
Vorteile werden durchaus erkannt
Kosteneffizienz und Effizienz als Top-Benefits
Trotz der Skepsis erkennen Deutsche auch Vorteile der generativen KI:
- Kosteneinsparungen (39%)
- Erhöhte Effizienz (37%)
- Reduzierte menschliche Fehler (31%)
- Mehr Innovation und Kreativität (20%)
- Erhöhte Inhaltsvielfalt (20%)
Gen Z zeigt sich besonders aufgeschlossen: 46% sehen erhöhte Effizienz als Vorteil – deutlich mehr als andere Generationen.
Brand Marketing: E-Mail-Newsletter als Akzeptanz-Champion
20% akzeptieren KI in Newsletter-Marketing
Im Brand Marketing zeigt sich ein differenziertes Bild. E-Mail-Newsletter erreichen mit 20% die höchste Akzeptanz für KI-generierten Content. Social Media Posts hingegen stoßen auf die größte Ablehnung
Die Akzeptanzreihenfolge bei Marketing-Content:
- E-Mail-Newsletter (20%)
- Video-Content (16%)
- Artikel/Blogs (15%)
- Audio-Content (15%)
- Social Media Posts (14%)
Quelle: YouGov
Jüngere Generationen offener für KI-Marketing
Gen Z und Millennials zeigen deutlich mehr Offenheit für KI-generierte Marketing-Inhalte. Bei E-Mail-Newslettern sind 32% der Gen Z und 28% der Millennials komfortabel, verglichen mit nur 9% der Baby Boomer.
KI-Influencer: Nischenpublikum in Deutschland
Nur 15% würden mit KI-Influencern interagieren
KI-generierte Influencer finden in Deutschland wenig Anklang. Nur 15% der Deutschen würden wahrscheinlich mit Content von KI-Influencern wie @lilmiquela oder @magazineluiza interagieren, wenn das Thema interessant wäre.
Auch hier zeigt sich die Generationenkluft:
- Millennials: 27% Engagement-Bereitschaft
- Gen Z: 19%
- Baby Boomer: Nur 11%
International betrachtet liegt Deutschland deutlich unter dem Durchschnitt. Indien führt mit 55% Engagement-Bereitschaft, gefolgt von den VAE (51%) und Indonesien (48%).
Regulierung: Deutlicher Handlungsbedarf gesehen
61% fordern strengere KI-Regulierung
Die Mehrheit der Deutschen sieht unzureichende Regulierung als Problem. 61% glauben nicht, dass genügend Vorschriften für verantwortlichen KI-Einsatz existieren. Besonders Baby Boomer (65%) und Gen X (64%) fordern stärkere Regulierung.
International zeigt sich ein gemischtes Bild: Während Spanien (78%), Großbritannien (70%) und Frankreich (70%) noch kritischer sind, sehen Länder wie Indien (40%), VAE (44%) und Hong Kong (52%) weniger Regulierungsbedarf.
Transparenz als Schlüsselforderung 77% fordern KI-Kennzeichnung
Transparenz steht ganz oben auf der deutschen Wunschliste. 77% der Deutschen halten es für wichtig, dass Inhalte explizit als KI-generiert gekennzeichnet werden. Bei Baby Boomern steigt dieser Wert sogar auf 88%.
Die Forderung nach Transparenz ist nahezu universal: In allen 15 untersuchten Märkten liegt die Zustimmung bei mindestens 75%. Italien führt mit 89%, während die VAE mit 76% das Schlusslicht bilden.
Internationale Korrelation: Optimismus und Vertrauen gehen Hand in Hand
Positive KI-Einstellung korreliert mit News-Vertrauen
Ein faszinierender Befund der Studie: Länder mit höherem KI-Optimismus vertrauen auch eher KI-generierten Nachrichten. Hongkong (57% Vertrauen), Indien (36%) und die VAE (44%) führen sowohl bei Optimismus als auch bei News-Vertrauen.
Deutschland hingegen bildet mit nur 21% positivem Sentiment und 36% News-Vertrauen das untere Ende der Skala.
Methodische Einordnung
Die Studie basiert auf YouGov Surveys: Sie wurde vom 16. Dezember 2024 bis 2. Januar 2025 durchgeführt. Neben Deutschland wurden 14 weitere Märkte untersucht, darunter USA, Großbritannien, Frankreich, Australien und asiatische Länder.
Die Generationsdefinition erfolgte wie folgt:
- Gen Z: 1997 oder später geboren
- Millennials: 1981-1996
- Gen X: 1965-1980
- Baby Boomer+: vor 1964
Implikationen für Medienunternehmen und Marken
Vertrauen durch Transparenz aufbauen
Die Studienergebnisse liefern klare Handlungsempfehlungen für Medienunternehmen und Marken:
Kennzeichnungspflicht ernst nehmen: Mit 77% Zustimmung zur KI-Kennzeichnung sollten Unternehmen proaktiv Transparenz schaffen.
Generationsspezifische Strategien entwickeln: Die dramatischen Unterschiede zwischen Baby Boomern und jüngeren Generationen erfordern differenzierte Ansätze.
E-Mail-Marketing als Testfeld nutzen: Mit der höchsten Akzeptanz von 20% eignen sich Newsletter als Experimentierfeld für KI-generierten Content.
Deutsche Konsumenten legen besonderen Wert auf Qualität und menschliche Kontrolle. Unternehmen sollten KI als Unterstützungs-, nicht als Ersatztool positionieren.
Deutschland im globalen KI-Diskurs
Die YouGov-Studie zeichnet das Bild einer gespaltenen deutschen Gesellschaft beim Thema KI in Medien. Während jüngere Generationen durchaus Potenziale erkennen, dominiert bei der Gesamtbevölkerung die Skepsis.
Besonders bemerkenswert ist die internationale Perspektive: Deutschland zeigt sich konservativer als viele andere entwickelte Märkte. Dies könnte sowohl kulturelle Gründe haben als auch die starke deutsche Tradition im Datenschutz und der Medienregulierung widerspiegeln.
Für die Medienbranche bedeutet dies: Der Weg zur KI-Integration wird in Deutschland langsamer und vorsichtiger verlaufen als in anderen Märkten. Transparenz, Qualitätskontrolle und schrittweise Einführung werden entscheidende Erfolgsfaktoren sein.
Die Zukunft wird zeigen, ob sich die deutsche Skepsis als berechtigt erweist oder ob andere Märkte mit ihrer optimistischeren Herangehensweise Vorteile erzielen werden. Eines ist jedoch sicher: Die Debatte um KI in Medien steht erst am Anfang, und Deutschland wird dabei eine wichtige, wenn auch eher zurückhaltende Rolle spielen.
Die KI-Illusion des Denkens: Was Apples Reasoning-Studie über die Grenzen künstlicher Intelligenz verrät
Wir reden viel darüber, wie KI im Alltag helfen kann und wie KI Aufgaben leichter macht, aber kann KI wirklich logisch denken? Diese fundamentale Frage hat ein Apple-Forschungsteam mit einer der bisher umfassendsten Studien zu "Large Reasoning Models" (LRMs) untersucht – und die Antworten sind ernüchternd. Die Ergebnisse stellen die Annahmen über die Denkfähigkeiten moderner KI-Systeme grundlegend in Frage.
Was sind Large Reasoning Models?
Large Reasoning Models (LRMs) wie OpenAIs o1/o3, DeepSeek-R1 oder Claude-3.7-Sonnet-Thinking repräsentieren die neueste Generation von KI-Modellen, die explizit für komplexe Denkaufgaben entwickelt wurden. Diese Systeme generieren detaillierte "Gedankengänge" – lange Chain-of-Thought-Sequenzen mit Selbstreflexion – bevor sie ihre finalen Antworten liefern.
Die Versprechen sind groß: Durchbrüche bei mathematischen Benchmarks, verbesserte Problemlösungsfähigkeiten und Schritte in Richtung einer allgemeineren KI. Doch wie das Apple-Team unter der Leitung von Parshin Shojaee und Iman Mirzadeh zeigt, könnte die Realität weit von diesen Versprechen entfernt sein.
Das Problem mit Standard-Benchmarks
Bisherige Evaluationen leiden unter systematischen Schwächen: Etablierte mathematische Benchmarks wie MATH-500 oder AIME sind oft von Datenkontamination betroffen und erlauben keine kontrollierte Manipulation der Problemkomplexität. Mehr noch: Sie bieten keine Einblicke in die Qualität der Reasoning-Traces selbst.
Das Apple-Team entwickelte daher einen neuen Ansatz: Kontrollierbare Puzzle-Umgebungen, die präzise Experimente über verschiedene Komplexitätsstufen hinweg ermöglichen, während sie gleichzeitig sowohl finale Antworten als auch interne Denkprozesse analysieren können.
Die vier Puzzle-Welten: Ein Laboratorium für KI-Denken
Tower of Hanoi: Rekursives Planen
Das klassische Puzzle mit drei Stäben und N Scheiben testet sequenzielles Denken und Planungsfähigkeiten. Die Mindestanzahl von Zügen wächst exponentiell (2^N - 1), was eine präzise Kontrolle der Schwierigkeit ermöglicht.
Checker Jumping: Constraint-Satisfaction
Ein eindimensionales Puzzle mit roten und blauen Spielsteinen erfordert räumliches Denken und Vorausplanung. Die Lösung erfordert (N+1)² - 1 Züge, was quadratisches Wachstum der Komplexität schafft.
River Crossing: Multi-Agent-Koordination
Eine Verallgemeinerung klassischer Logik-Rätsel testet die Fähigkeit, multiple Constraints gleichzeitig zu verwalten und sichere Übergänge zu planen.
Blocks World: Planung und Dekonstruktion
Das Umordnen von Blöcken erfordert vorausschauendes Denken und die Fähigkeit, komplexe Zustandstransformationen in gültige Sequenzen zu zerlegen.
Die Befunde: Drei Bereiche des Scheiterns
1. Standard-LLMs schlagen Reasoning-ModelleBei einfachen Problemen zeigen Standard-LLMs überraschend bessere Leistungen als ihre "denkenden" Counterparts. Sie sind nicht nur genauer, sondern auch deutlich Token-effizienter. Dies widerspricht fundamental der Annahme, dass mehr "Denken" immer besser ist.
2. Der Sweet Spot für ReasoningBei mittlerer Komplexität entfalten LRMs ihre Stärken. Hier zahlt sich die zusätzliche Denkzeit aus, und die Reasoning-Modelle übertreffen ihre Standard-Pendants deutlich. Doch dieser Bereich ist überraschend schmal.
3. Kompletter Kollaps bei beiden Modelltypen
Jenseits eines kritischen Komplexitätsschwellenwerts versagen beide Modelltypen vollständig. Die Genauigkeit fällt auf null, und überraschenderweise beginnen die Reasoning-Modelle sogar, ihre Denkleistung zu reduzieren, obwohl sie weit unter ihren Token-Limits operieren.
Das Paradox der reduzierten Denkleistung
Eine der verblüffendsten Entdeckungen der Studie: Je komplexer die Probleme werden, desto weniger "denken" die KI-Modelle tatsächlich. Nach einem kritischen Punkt reduzieren sie ihren Reasoning-Aufwand (gemessen in Inferenz-Tokens), obwohl sie über ausreichende Token-Budgets verfügen.
Diese Beobachtung gilt für alle getesteten Modelle:
- o3-mini: Deutlicher Rückgang der Thinking-Tokens bei hoher Komplexität
- DeepSeek-R1: Ähnliches Muster mit früherer Sättigung
- Claude-3.7-Sonnet: Moderatere, aber erkennbare Reduktion
Was bedeutet das für die KI-Skalierung?
Diese Befunde stellen die Grundannahme in Frage, dass mehr Inferenz-Compute zu besseren Reasoning-Fähigkeiten führt. Stattdessen scheinen aktuelle LRMs einem fundamentalen Skalierungslimit unterworfen zu sein: Sie können nicht einfach "länger denken", um schwierigere Probleme zu lösen.
Einblicke in die KI-Gedankenwelt
Overthinking bei einfachen Problemen
Bei simplen Aufgaben zeigen Reasoning-Modelle ein "Overthinking"-Phänomen: Sie finden oft früh die richtige Lösung, erkunden dann aber weiterhin falsche Alternativen und verschwenden dabei wertvolle Compute-Ressourcen.
Die späte Erkenntnis bei mittlerer Komplexität
Bei moderater Schwierigkeit kehrt sich das Muster um: Korrekte Lösungen emergieren erst nach extensiver Exploration falscher Pfade. Dies deutet auf echte Problemlösungsprozesse hin, allerdings mit erheblicher Ineffizienz.
Totaler Blackout bei hoher Komplexität
Jenseits des kritischen Schwellenwerts versagen die Modelle komplett. Sie generieren keine korrekten Zwischenlösungen mehr, was auf einen fundamentalen Zusammenbruch der Reasoning-Fähigkeiten hindeutet.
Scheitern bei vorgegebenen Lösungen
Eines der Ergebnisse der Studie: Selbst wenn den Modellen der komplette Lösungsalgorithmus vorgegeben wird – sie müssen ihn nur noch ausführen –, versagen sie bei derselben Komplexitätsschwelle.
Dies ist besonders bemerkenswert, weil:
- Das Finden einer Lösung deutlich mehr Computation erfordern sollte als deren Ausführung
- Die Modelle bei der reinen Algorithmus-Ausführung scheitern, wo sie eigentlich nur mechanische Schritte befolgen müssten
- Dies auf fundamentale Schwächen in der symbolischen Manipulation hinweist
Inkonsistente Reasoning-Fähigkeiten
Die Studie deckt massive Inkonsistenzen auf: Claude-3.7-Sonnet kann 100 korrekte Züge beim Tower of Hanoi ausführen, scheitert aber nach 4 Zügen beim River Crossing. Diese Diskrepanz lässt sich nicht durch Komplexität erklären und deutet auf unterschiedliche Trainingsexposition hin.
Was das für die KI-Entwicklung bedeutet
Das Ende der "Mehr-ist-Besser"-Mentalität
Die Apple-Studie widerlegt die naive Annahme, dass mehr Reasoning-Tokens automatisch zu besseren Ergebnissen führen. Stattdessen gibt es optimale Bereiche, außerhalb derer zusätzliche "Denkzeit" kontraproduktiv wird.
Neue Metriken für KI-Bewertung
Die Fokussierung auf finale Genauigkeit greift zu kurz. Die Apple-Forscher zeigen, dass die Analyse von Reasoning-Traces mindestens genauso wichtig ist wie das Endergebnis. Dies erfordert neue Evaluationsmethoden und Benchmarks.
Realistische Erwartungen an KI-Fähigkeiten
Die Ergebnisse mahnen zur Vorsicht bei überzogenen Erwartungen. Aktuelle LRMs zeigen zwar beeindruckende Fähigkeiten in begrenzten Bereichen, sind aber weit von generalisierbaren Reasoning-Fähigkeiten entfernt.
Kritische Einordnung der Studie
Stärken der Apple-Forschung
Die Studie besticht durch ihre methodische Rigorosität:
- Kontrollierte Experimental-Umgebungen
- Systematische Variation der Problemkomplexität
- Detaillierte Analyse der Reasoning-Traces
- Vergleich zwischen verschiedenen Modellarchitekturen
Mögliche Limitationen
Gleichzeitig sind einige Einschränkungen zu beachten:
- Begrenzte Domäne: Puzzle-Probleme repräsentieren nur einen Ausschnitt möglicher Reasoning-Aufgaben
- Black-Box-Zugang: Analysen basieren auf API-Zugriff ohne Einblick in interne Modellzustände
- Deterministischer Fokus: Präzise Validierung ist bei weniger strukturierten Problemen schwieriger
Ausblick: Wohin führt die Reasoning-Forschung?
Neue Architektur-Ansätze erforderlich
Die Studie legt nahe, dass fundamental neue Ansätze nötig sind. Einfache Skalierung von Inferenz-Compute reicht nicht aus – es braucht qualitativ andere Reasoning-Mechanismen.
Hybrid-Systeme als Lösung?
Die Zukunft könnte in der intelligenten Kombination verschiedener Ansätze liegen: Standard-LLMs für einfache Aufgaben, Reasoning-Modelle für den Sweet Spot mittlerer Komplexität und spezialisierte Algorithmen für hochkomplexe Probleme.
Die Bedeutung von Domänen-Expertise
Die inkonsistenten Leistungen zwischen verschiedenen Puzzle-Typen unterstreichen die Bedeutung von Domänen-spezifischem Training. Generalisierbare Reasoning-Fähigkeiten bleiben ein ungelöstes Problem.
Fazit: Ein Realitäts-Check für die KI-Branche
Die Apple-Studie "The Illusion of Thinking" liefert einen überfälligen Realitäts-Check für die KI-Branche. Die Befunde sind eindeutig: Aktuelle Reasoning-Modelle sind weit davon entfernt, echtes logisches Denken zu beherrschen. Stattdessen zeigen sie ausgeklügelte Pattern-Matching-Fähigkeiten mit klaren, vorhersagbaren Grenzen.
Drei zentrale Erkenntnisse für die Praxis:
- Kein universelles Reasoning: Verschiedene Problembereiche erfordern unterschiedliche Ansätze
- Komplexitäts-Schwellenwerte beachten: Jenseits bestimmter Grenzen versagen alle aktuellen Ansätze
- Effizienz vor Sophistication: Oft sind einfachere Modelle die bessere Wahl
Für die Zukunft der KI bedeutet das nicht das Ende der Reasoning-Forschung, sondern den Beginn einer realistischeren Phase. Anstatt zu behaupten, dass KI "denken" kann, sollten wir verstehen, wo und wie sie effektiv eingesetzt werden kann – und wo ihre Grenzen liegen.
Die Frage "Kann KI wirklich logisch denken?" hat eine klare Antwort erhalten: Nein, zumindest nicht in dem Sinne, wie wir es verstehen. Aber vielleicht ist das auch gar nicht nötig. Wenn wir die Stärken und Schwächen aktueller Systeme verstehen, können wir sie effektiver einsetzen und realistischere Erwartungen entwickeln.
Die KI-Revolution geht weiter – aber mit einem klareren Verständnis davon, was möglich ist und was (noch) nicht.
Weitere Neuigkeiten im Überblick
Apples neue KI-Strategie
Apple führt Gespräche über eine mögliche Übernahme des KI-Suchspezialisten Perplexity AI für rund 14 Milliarden US-Dollar – der größte Zukauf der Firmengeschichte. Alternativ steht eine strategische Partnerschaft im Raum, die Perplexitys Such-KI direkt in Safari und Siri integrieren könnte. Der Grund: Apples "Apple Intelligence" verzögert sich, während die milliardenschwere Google-Vereinbarung durch US-Kartellverfahren unter Druck steht. Mit Perplexitys KI-gestützter Suchmaschine könnte Apple endlich unabhängiger vom Suchgiganten werden – falls Samsung nicht dazwischenfunkt.
Quelle: Bloomberg
Next‑Gen Ad Creation: Canva holt sich MagicBrief
Canva übernimmt MagicBrief, eine australische Plattform für KI-basiertes Performance-Marketing. Ziel ist, Wettbewerbsanalysen und kreative Kampagnenoptimierung direkt in Canva zu integrieren – für “off insight to idea to impact” in einem Tool.
Quelle: Canva
“Stop Hiring Humans” – provokante Artisan‑AI‑Billboards in NYC
Erst im Silicon Valley, jetzt am Times Square: In New York tauchen kontroverse Plakate von Artisan AI mit Slogans wie „Stop hiring humans“ auf – mit viralem Erfolg: über 100 Mio. Online‑Impressions. Die Kampagne bewirbt KI‑Salesagenten (u. a. „Ava“) als PR-Stunt mit viralem Charakter
Quelle: NY Post
Blue‑Collar meets AI: 40 % der Handwerksbetriebe nutzen KI
KI kann (noch) keine Leitungen verlegen oder Löcher reparieren, aber Handwerksbetriebe in den USA (Elektriker, Klempner u. a.) setzen über Tools wie Housecall Pro und ServiceTitan KI ein – etwa für Marketing-Content, Buchungsassistenten, Auto‑E‑Mails usw. 40 % der Nutzer sparen rund 4 Stunden pro Woche. Wird die DACH-Region nachziehen?
Quelle: Kiplinger
Dieter Schwarz will Europas größtes KI-Zentrum aufbauen
Lidl und Kaufland als AI-Pioniere? Ganz genau, bis 2027 will die Stiftung um Lidl und Kaufland rund zwei Milliarden Euro in Heilbronn investieren und die Region zum größten KI-Zentrum Europas machen. Auch das Land Baden-Württemberg beteiligt sich mit vielen Millionen. Doch statt Unterstützung kommt aus der KI-Szene in Baden-Württemberg eher Kritik. Andere Akteure stören sich daran, dass ein Ort ohne Forschungstradition begünstigt wird.
Quelle: Handelsblatt
Google testet Audio Overviews in der Suche
Google rollt Audio-Zusammenfassungen für Suchanfragen aus – vorgelesen von Gemini-Modellen. Die Funktion richtet sich an User, die lieber hören als lesen, etwa beim Kochen oder unterwegs. Bereits aus NotebookLM bekannt, gibt’s nun auch in der Suche einen Audio-Player samt Quellen und Feedback-Option.
Quelle: Google – The Keyword