KI in Kürze: Ihr Überblick, über die wichtigsten KI-News

Kostenloser Leitfaden: Conversational AI im Kundenservice
Timo Zingsheim
Timo Zingsheim

Aktualisiert:

→ Registrieren Sie sich, um die KI-Tools von HubSpot auszuprobieren [Kostenlose  Tools]

Deutsche zweifeln an KI-generierten Medieninhalten – YouGov-Studie

Basierend auf der YouGov-Studie "Trust or concern? How Germany feels about generative AI in media" aus dem Jahr 2025

Die Art, wie wir Medieninhalte erstellen, konsumieren und bewerten, verändert sich. Eine umfassende YouGov-Studie vom Dezember 2024 bis Januar 2025 beleuchtet erstmals detailliert die deutsche Haltung zu generativer KI in der Medienlandschaft – mit teilweise überraschenden Ergebnissen.

Deutsche als europäische Skeptiker

Deutschland positioniert sich als einer der kritischsten Märkte beim Thema generative KI in Medien. Von den 1.001 befragten Deutschen äußern 37% negative Gefühle ("concerned" oder "skeptical") zur zunehmenden KI-Rolle in den nächsten zehn Jahren. Zum Vergleich: Der Durchschnitt aller 15 untersuchten Märkte liegt bei nur 29%.

Philipp Schneider, Head of Marketing DACH bei YouGov Deutschland, fasst die Herausforderung zusammen:

Zitat – Philipp Schneider, Head of Marketing DACH bei YouGov Deutschland

Generationenkluft bei KI-Akzeptanz

Millennials zeigen sich aufgeschlossener

Die Studie offenbart erhebliche generationsbedingte Unterschiede. Millennials sind mit 27% am optimistischsten bezüglich der KI-Entwicklung, während nur 21% Bedenken äußern. Gen Z folgt mit 23% Optimismus, zeigt jedoch mit nur 7% die geringste Besorgnis aller Altersgruppen.

Baby Boomer am kritischsten

Am anderen Ende des Spektrums stehen die Baby Boomer: 21% äußern Bedenken, während nur 14% optimistisch sind. Besonders auffällig: 15% der Baby Boomer fühlen sich "uneasy" bezüglich der KI-Entwicklung – der höchste Wert aller Generationen.

Screenshot aus YouGov Studie wie die Generationen KI sehenQuelle: YouGov

Falschinformationen als Hauptsorge

53% der Deutschen beunruhigt um Deepfakes

Die größte Sorge der Deutschen gilt Falschinformationen und Deepfakes (53%). Diese Besorgnis steigt bei Baby Boomern auf dramatische 63%, während nur 47% der Gen Z diese Befürchtung teilen.

Weitere zentrale Bedenken umfassen:

  • Verlust der menschlichen Note (49%)
  • Datenschutz und Datennutzung (39%)
  • Informationsqualität (33%)
  • Arbeitsplätze in Gefahr (33%)

Screenshot aus YouGov Studie, was die größten Bedenken sindQuelle: YouGov

Internationale Einordnung

Im globalen Vergleich zeigen sich Deutsche besonders skeptisch. Während in Indien nur 12% Sorgen bezüglich Falschinformationen äußern, liegt Deutschland mit 53% weit über dem internationalen Durchschnitt.

Nachrichtenkonsum und KI-Vertrauen

Mehr als die Hälfte misstraut KI-generierten News

54% der Deutschen vertrauen KI-generierten Nachrichten weniger als von Menschen erstellten Inhalten. Nur 9% vertrauen KI-News mehr, während 26% gleiches Vertrauen bekunden.

Besonders problematisch sehen Deutsche KI bei:

  • Social Media Posts (54%)
  • Bildmaterial (48%)
  • Video-Content (44%)
  • Geschriebenen Artikeln (41%)

Generationsunterschiede beim News-Vertrauen

Die Vertrauenskluft zwischen den Generationen ist erheblich: Während 21% der Millennials KI-generierten News mehr vertrauen als menschlich erstellten, sind es bei den Baby Boomern nur 4%. Umgekehrt misstrauen 66% der Baby Boomer KI-News, aber nur 38% der Millennials.

Vorteile werden durchaus erkannt

Kosteneffizienz und Effizienz als Top-Benefits

Trotz der Skepsis erkennen Deutsche auch Vorteile der generativen KI:

  • Kosteneinsparungen (39%)
  • Erhöhte Effizienz (37%)
  • Reduzierte menschliche Fehler (31%)
  • Mehr Innovation und Kreativität (20%)
  • Erhöhte Inhaltsvielfalt (20%)

Gen Z zeigt sich besonders aufgeschlossen: 46% sehen erhöhte Effizienz als Vorteil – deutlich mehr als andere Generationen.

Brand Marketing: E-Mail-Newsletter als Akzeptanz-Champion

20% akzeptieren KI in Newsletter-Marketing

Im Brand Marketing zeigt sich ein differenziertes Bild. E-Mail-Newsletter erreichen mit 20% die höchste Akzeptanz für KI-generierten Content. Social Media Posts hingegen stoßen auf die größte Ablehnung

Die Akzeptanzreihenfolge bei Marketing-Content:

  1. E-Mail-Newsletter (20%)
  2. Video-Content (16%)
  3. Artikel/Blogs (15%)
  4. Audio-Content (15%)
  5. Social Media Posts (14%)

Screenshot aus YouGov Studie, wie wird KI im Bereich Brand und Marketing gesehen

Quelle: YouGov

Jüngere Generationen offener für KI-Marketing

Gen Z und Millennials zeigen deutlich mehr Offenheit für KI-generierte Marketing-Inhalte. Bei E-Mail-Newslettern sind 32% der Gen Z und 28% der Millennials komfortabel, verglichen mit nur 9% der Baby Boomer.

KI-Influencer: Nischenpublikum in Deutschland

Nur 15% würden mit KI-Influencern interagieren

KI-generierte Influencer finden in Deutschland wenig Anklang. Nur 15% der Deutschen würden wahrscheinlich mit Content von KI-Influencern wie @lilmiquela oder @magazineluiza interagieren, wenn das Thema interessant wäre.

Auch hier zeigt sich die Generationenkluft:

  • Millennials: 27% Engagement-Bereitschaft
  • Gen Z: 19%
  • Baby Boomer: Nur 11%

International betrachtet liegt Deutschland deutlich unter dem Durchschnitt. Indien führt mit 55% Engagement-Bereitschaft, gefolgt von den VAE (51%) und Indonesien (48%).

Regulierung: Deutlicher Handlungsbedarf gesehen

61% fordern strengere KI-Regulierung

Die Mehrheit der Deutschen sieht unzureichende Regulierung als Problem. 61% glauben nicht, dass genügend Vorschriften für verantwortlichen KI-Einsatz existieren. Besonders Baby Boomer (65%) und Gen X (64%) fordern stärkere Regulierung.

International zeigt sich ein gemischtes Bild: Während Spanien (78%), Großbritannien (70%) und Frankreich (70%) noch kritischer sind, sehen Länder wie Indien (40%), VAE (44%) und Hong Kong (52%) weniger Regulierungsbedarf.

Transparenz als Schlüsselforderung 77% fordern KI-Kennzeichnung

Transparenz steht ganz oben auf der deutschen Wunschliste. 77% der Deutschen halten es für wichtig, dass Inhalte explizit als KI-generiert gekennzeichnet werden. Bei Baby Boomern steigt dieser Wert sogar auf 88%.

Die Forderung nach Transparenz ist nahezu universal: In allen 15 untersuchten Märkten liegt die Zustimmung bei mindestens 75%. Italien führt mit 89%, während die VAE mit 76% das Schlusslicht bilden.

Internationale Korrelation: Optimismus und Vertrauen gehen Hand in Hand

Positive KI-Einstellung korreliert mit News-Vertrauen

Ein faszinierender Befund der Studie: Länder mit höherem KI-Optimismus vertrauen auch eher KI-generierten Nachrichten. Hongkong (57% Vertrauen), Indien (36%) und die VAE (44%) führen sowohl bei Optimismus als auch bei News-Vertrauen.

Deutschland hingegen bildet mit nur 21% positivem Sentiment und 36% News-Vertrauen das untere Ende der Skala.

Methodische Einordnung

Die Studie basiert auf YouGov Surveys: Sie wurde vom 16. Dezember 2024 bis 2. Januar 2025 durchgeführt. Neben Deutschland wurden 14 weitere Märkte untersucht, darunter USA, Großbritannien, Frankreich, Australien und asiatische Länder.

Die Generationsdefinition erfolgte wie folgt:

  • Gen Z: 1997 oder später geboren
  • Millennials: 1981-1996
  • Gen X: 1965-1980
  • Baby Boomer+: vor 1964

Implikationen für Medienunternehmen und Marken

Vertrauen durch Transparenz aufbauen

Die Studienergebnisse liefern klare Handlungsempfehlungen für Medienunternehmen und Marken:

Kennzeichnungspflicht ernst nehmen: Mit 77% Zustimmung zur KI-Kennzeichnung sollten Unternehmen proaktiv Transparenz schaffen.

Generationsspezifische Strategien entwickeln: Die dramatischen Unterschiede zwischen Baby Boomern und jüngeren Generationen erfordern differenzierte Ansätze.

E-Mail-Marketing als Testfeld nutzen: Mit der höchsten Akzeptanz von 20% eignen sich Newsletter als Experimentierfeld für KI-generierten Content.

Deutsche Konsumenten legen besonderen Wert auf Qualität und menschliche Kontrolle. Unternehmen sollten KI als Unterstützungs-, nicht als Ersatztool positionieren.

Deutschland im globalen KI-Diskurs

Die YouGov-Studie zeichnet das Bild einer gespaltenen deutschen Gesellschaft beim Thema KI in Medien. Während jüngere Generationen durchaus Potenziale erkennen, dominiert bei der Gesamtbevölkerung die Skepsis.

Besonders bemerkenswert ist die internationale Perspektive: Deutschland zeigt sich konservativer als viele andere entwickelte Märkte. Dies könnte sowohl kulturelle Gründe haben als auch die starke deutsche Tradition im Datenschutz und der Medienregulierung widerspiegeln.

Für die Medienbranche bedeutet dies: Der Weg zur KI-Integration wird in Deutschland langsamer und vorsichtiger verlaufen als in anderen Märkten. Transparenz, Qualitätskontrolle und schrittweise Einführung werden entscheidende Erfolgsfaktoren sein.

Die Zukunft wird zeigen, ob sich die deutsche Skepsis als berechtigt erweist oder ob andere Märkte mit ihrer optimistischeren Herangehensweise Vorteile erzielen werden. Eines ist jedoch sicher: Die Debatte um KI in Medien steht erst am Anfang, und Deutschland wird dabei eine wichtige, wenn auch eher zurückhaltende Rolle spielen.

 


 

Die KI-Illusion des Denkens: Was Apples Reasoning-Studie über die Grenzen künstlicher Intelligenz verrät

Basierend auf der Apple-Forschungsstudie "The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity" (2025)

Wir reden viel darüber, wie KI im Alltag helfen kann und wie KI Aufgaben leichter macht, aber kann KI wirklich logisch denken? Diese fundamentale Frage hat ein Apple-Forschungsteam mit einer der bisher umfassendsten Studien zu "Large Reasoning Models" (LRMs) untersucht – und die Antworten sind ernüchternd. Die Ergebnisse stellen die Annahmen über die Denkfähigkeiten moderner KI-Systeme grundlegend in Frage.

Was sind Large Reasoning Models?

Large Reasoning Models (LRMs) wie OpenAIs o1/o3, DeepSeek-R1 oder Claude-3.7-Sonnet-Thinking repräsentieren die neueste Generation von KI-Modellen, die explizit für komplexe Denkaufgaben entwickelt wurden. Diese Systeme generieren detaillierte "Gedankengänge" – lange Chain-of-Thought-Sequenzen mit Selbstreflexion – bevor sie ihre finalen Antworten liefern.

Die Versprechen sind groß: Durchbrüche bei mathematischen Benchmarks, verbesserte Problemlösungsfähigkeiten und Schritte in Richtung einer allgemeineren KI. Doch wie das Apple-Team unter der Leitung von Parshin Shojaee und Iman Mirzadeh zeigt, könnte die Realität weit von diesen Versprechen entfernt sein.

Das Problem mit Standard-Benchmarks

Bisherige Evaluationen leiden unter systematischen Schwächen: Etablierte mathematische Benchmarks wie MATH-500 oder AIME sind oft von Datenkontamination betroffen und erlauben keine kontrollierte Manipulation der Problemkomplexität. Mehr noch: Sie bieten keine Einblicke in die Qualität der Reasoning-Traces selbst.

Das Apple-Team entwickelte daher einen neuen Ansatz: Kontrollierbare Puzzle-Umgebungen, die präzise Experimente über verschiedene Komplexitätsstufen hinweg ermöglichen, während sie gleichzeitig sowohl finale Antworten als auch interne Denkprozesse analysieren können.

Die vier Puzzle-Welten: Ein Laboratorium für KI-Denken

Tower of Hanoi: Rekursives Planen

Das klassische Puzzle mit drei Stäben und N Scheiben testet sequenzielles Denken und Planungsfähigkeiten. Die Mindestanzahl von Zügen wächst exponentiell (2^N - 1), was eine präzise Kontrolle der Schwierigkeit ermöglicht.

Checker Jumping: Constraint-Satisfaction

Ein eindimensionales Puzzle mit roten und blauen Spielsteinen erfordert räumliches Denken und Vorausplanung. Die Lösung erfordert (N+1)² - 1 Züge, was quadratisches Wachstum der Komplexität schafft.

River Crossing: Multi-Agent-Koordination

Eine Verallgemeinerung klassischer Logik-Rätsel testet die Fähigkeit, multiple Constraints gleichzeitig zu verwalten und sichere Übergänge zu planen.

Blocks World: Planung und Dekonstruktion

Das Umordnen von Blöcken erfordert vorausschauendes Denken und die Fähigkeit, komplexe Zustandstransformationen in gültige Sequenzen zu zerlegen.

Die Befunde: Drei Bereiche des Scheiterns

1. Standard-LLMs schlagen Reasoning-Modelle

Bei einfachen Problemen zeigen Standard-LLMs überraschend bessere Leistungen als ihre "denkenden" Counterparts. Sie sind nicht nur genauer, sondern auch deutlich Token-effizienter. Dies widerspricht fundamental der Annahme, dass mehr "Denken" immer besser ist.

 2. Der Sweet Spot für Reasoning

Bei mittlerer Komplexität entfalten LRMs ihre Stärken. Hier zahlt sich die zusätzliche Denkzeit aus, und die Reasoning-Modelle übertreffen ihre Standard-Pendants deutlich. Doch dieser Bereich ist überraschend schmal.

3. Kompletter Kollaps bei beiden Modelltypen

Jenseits eines kritischen Komplexitätsschwellenwerts versagen beide Modelltypen vollständig. Die Genauigkeit fällt auf null, und überraschenderweise beginnen die Reasoning-Modelle sogar, ihre Denkleistung zu reduzieren, obwohl sie weit unter ihren Token-Limits operieren.

Das Paradox der reduzierten Denkleistung

Eine der verblüffendsten Entdeckungen der Studie: Je komplexer die Probleme werden, desto weniger "denken" die KI-Modelle tatsächlich. Nach einem kritischen Punkt reduzieren sie ihren Reasoning-Aufwand (gemessen in Inferenz-Tokens), obwohl sie über ausreichende Token-Budgets verfügen.

Diese Beobachtung gilt für alle getesteten Modelle:

  • o3-mini: Deutlicher Rückgang der Thinking-Tokens bei hoher Komplexität
  • DeepSeek-R1: Ähnliches Muster mit früherer Sättigung
  • Claude-3.7-Sonnet: Moderatere, aber erkennbare Reduktion

Was bedeutet das für die KI-Skalierung?

Diese Befunde stellen die Grundannahme in Frage, dass mehr Inferenz-Compute zu besseren Reasoning-Fähigkeiten führt. Stattdessen scheinen aktuelle LRMs einem fundamentalen Skalierungslimit unterworfen zu sein: Sie können nicht einfach "länger denken", um schwierigere Probleme zu lösen.

Einblicke in die KI-Gedankenwelt

Overthinking bei einfachen Problemen

Bei simplen Aufgaben zeigen Reasoning-Modelle ein "Overthinking"-Phänomen: Sie finden oft früh die richtige Lösung, erkunden dann aber weiterhin falsche Alternativen und verschwenden dabei wertvolle Compute-Ressourcen.

Die späte Erkenntnis bei mittlerer Komplexität

Bei moderater Schwierigkeit kehrt sich das Muster um: Korrekte Lösungen emergieren erst nach extensiver Exploration falscher Pfade. Dies deutet auf echte Problemlösungsprozesse hin, allerdings mit erheblicher Ineffizienz.

Totaler Blackout bei hoher Komplexität

Jenseits des kritischen Schwellenwerts versagen die Modelle komplett. Sie generieren keine korrekten Zwischenlösungen mehr, was auf einen fundamentalen Zusammenbruch der Reasoning-Fähigkeiten hindeutet.

Scheitern bei vorgegebenen Lösungen

Eines der Ergebnisse der Studie: Selbst wenn den Modellen der komplette Lösungsalgorithmus vorgegeben wird – sie müssen ihn nur noch ausführen –, versagen sie bei derselben Komplexitätsschwelle.

Dies ist besonders bemerkenswert, weil:

  • Das Finden einer Lösung deutlich mehr Computation erfordern sollte als deren Ausführung
  • Die Modelle bei der reinen Algorithmus-Ausführung scheitern, wo sie eigentlich nur mechanische Schritte befolgen müssten
  • Dies auf fundamentale Schwächen in der symbolischen Manipulation hinweist

Inkonsistente Reasoning-Fähigkeiten

Die Studie deckt massive Inkonsistenzen auf: Claude-3.7-Sonnet kann 100 korrekte Züge beim Tower of Hanoi ausführen, scheitert aber nach 4 Zügen beim River Crossing. Diese Diskrepanz lässt sich nicht durch Komplexität erklären und deutet auf unterschiedliche Trainingsexposition hin.

Was das für die KI-Entwicklung bedeutet

Das Ende der "Mehr-ist-Besser"-Mentalität

Die Apple-Studie widerlegt die naive Annahme, dass mehr Reasoning-Tokens automatisch zu besseren Ergebnissen führen. Stattdessen gibt es optimale Bereiche, außerhalb derer zusätzliche "Denkzeit" kontraproduktiv wird.

Neue Metriken für KI-Bewertung

Die Fokussierung auf finale Genauigkeit greift zu kurz. Die Apple-Forscher zeigen, dass die Analyse von Reasoning-Traces mindestens genauso wichtig ist wie das Endergebnis. Dies erfordert neue Evaluationsmethoden und Benchmarks.

Realistische Erwartungen an KI-Fähigkeiten

Die Ergebnisse mahnen zur Vorsicht bei überzogenen Erwartungen. Aktuelle LRMs zeigen zwar beeindruckende Fähigkeiten in begrenzten Bereichen, sind aber weit von generalisierbaren Reasoning-Fähigkeiten entfernt.

Kritische Einordnung der Studie

Stärken der Apple-Forschung

Die Studie besticht durch ihre methodische Rigorosität:

  • Kontrollierte Experimental-Umgebungen
  • Systematische Variation der Problemkomplexität
  • Detaillierte Analyse der Reasoning-Traces
  • Vergleich zwischen verschiedenen Modellarchitekturen

Mögliche Limitationen

Gleichzeitig sind einige Einschränkungen zu beachten:

  • Begrenzte Domäne: Puzzle-Probleme repräsentieren nur einen Ausschnitt möglicher Reasoning-Aufgaben
  • Black-Box-Zugang: Analysen basieren auf API-Zugriff ohne Einblick in interne Modellzustände
  • Deterministischer Fokus: Präzise Validierung ist bei weniger strukturierten Problemen schwieriger

Ausblick: Wohin führt die Reasoning-Forschung?

Neue Architektur-Ansätze erforderlich

Die Studie legt nahe, dass fundamental neue Ansätze nötig sind. Einfache Skalierung von Inferenz-Compute reicht nicht aus – es braucht qualitativ andere Reasoning-Mechanismen.

Hybrid-Systeme als Lösung?

Die Zukunft könnte in der intelligenten Kombination verschiedener Ansätze liegen: Standard-LLMs für einfache Aufgaben, Reasoning-Modelle für den Sweet Spot mittlerer Komplexität und spezialisierte Algorithmen für hochkomplexe Probleme.

Die Bedeutung von Domänen-Expertise

Die inkonsistenten Leistungen zwischen verschiedenen Puzzle-Typen unterstreichen die Bedeutung von Domänen-spezifischem Training. Generalisierbare Reasoning-Fähigkeiten bleiben ein ungelöstes Problem.

Fazit: Ein Realitäts-Check für die KI-Branche

Die Apple-Studie "The Illusion of Thinking" liefert einen überfälligen Realitäts-Check für die KI-Branche. Die Befunde sind eindeutig: Aktuelle Reasoning-Modelle sind weit davon entfernt, echtes logisches Denken zu beherrschen. Stattdessen zeigen sie ausgeklügelte Pattern-Matching-Fähigkeiten mit klaren, vorhersagbaren Grenzen.

Drei zentrale Erkenntnisse für die Praxis:

  1. Kein universelles Reasoning: Verschiedene Problembereiche erfordern unterschiedliche Ansätze
  2. Komplexitäts-Schwellenwerte beachten: Jenseits bestimmter Grenzen versagen alle aktuellen Ansätze
  3. Effizienz vor Sophistication: Oft sind einfachere Modelle die bessere Wahl

Für die Zukunft der KI bedeutet das nicht das Ende der Reasoning-Forschung, sondern den Beginn einer realistischeren Phase. Anstatt zu behaupten, dass KI "denken" kann, sollten wir verstehen, wo und wie sie effektiv eingesetzt werden kann – und wo ihre Grenzen liegen.

Die Frage "Kann KI wirklich logisch denken?" hat eine klare Antwort erhalten: Nein, zumindest nicht in dem Sinne, wie wir es verstehen. Aber vielleicht ist das auch gar nicht nötig. Wenn wir die Stärken und Schwächen aktueller Systeme verstehen, können wir sie effektiver einsetzen und realistischere Erwartungen entwickeln.

Die KI-Revolution geht weiter – aber mit einem klareren Verständnis davon, was möglich ist und was (noch) nicht.

 


 

Weitere Neuigkeiten im Überblick 

Apples neue KI-Strategie 

Apple führt Gespräche über eine mögliche Übernahme des KI-Suchspezialisten Perplexity AI für rund 14 Milliarden US-Dollar – der größte Zukauf der Firmengeschichte. Alternativ steht eine strategische Partnerschaft im Raum, die Perplexitys Such-KI direkt in Safari und Siri integrieren könnte. Der Grund: Apples "Apple Intelligence" verzögert sich, während die milliardenschwere Google-Vereinbarung durch US-Kartellverfahren unter Druck steht. Mit Perplexitys KI-gestützter Suchmaschine könnte Apple endlich unabhängiger vom Suchgiganten werden – falls Samsung nicht dazwischenfunkt.

Quelle: Bloomberg

 

Next‑Gen Ad Creation: Canva holt sich MagicBrief

Canva übernimmt MagicBrief, eine australische Plattform für KI-basiertes Performance-Marketing. Ziel ist, Wettbewerbsanalysen und kreative Kampagnenoptimierung direkt in Canva zu integrieren – für “off insight to idea to impact” in einem Tool.

Quelle: Canva

 

“Stop Hiring Humans” – provokante Artisan‑AI‑Billboards in NYC

Erst im Silicon Valley, jetzt am Times Square: In New York tauchen kontroverse Plakate von Artisan AI mit Slogans wie „Stop hiring humans“ auf – mit viralem Erfolg: über 100 Mio. Online‑Impressions. Die Kampagne bewirbt KI‑Salesagenten (u. a. „Ava“) als PR-Stunt mit viralem Charakter

Quelle: NY Post 

 

Blue‑Collar meets AI: 40 % der Handwerksbetriebe nutzen KI

KI kann (noch) keine Leitungen verlegen oder Löcher reparieren, aber  Handwerksbetriebe in den USA (Elektriker, Klempner u. a.) setzen über Tools wie Housecall Pro und ServiceTitan KI ein – etwa für Marketing-Content, Buchungsassistenten, Auto‑E‑Mails usw. 40 % der Nutzer sparen rund 4 Stunden pro Woche. Wird die DACH-Region nachziehen? 

Quelle: Kiplinger

 

Dieter Schwarz will Europas größtes KI-Zentrum aufbauen 

Lidl und Kaufland als AI-Pioniere? Ganz genau, bis 2027 will die Stiftung um Lidl und Kaufland rund zwei Milliarden Euro in Heilbronn investieren und die Region zum größten KI-Zentrum Europas machen. Auch das Land Baden-Württemberg beteiligt sich mit vielen Millionen. Doch statt Unterstützung kommt aus der KI-Szene in Baden-Württemberg eher Kritik. Andere Akteure stören sich daran, dass ein Ort ohne Forschungstradition begünstigt wird.

Quelle: Handelsblatt

 

Google testet Audio Overviews in der Suche

Google rollt Audio-Zusammenfassungen für Suchanfragen aus – vorgelesen von Gemini-Modellen. Die Funktion richtet sich an User, die lieber hören als lesen, etwa beim Kochen oder unterwegs. Bereits aus NotebookLM bekannt, gibt’s nun auch in der Suche einen Audio-Player samt Quellen und Feedback-Option. 

Quelle: Google – The Keyword

Die neuen KI-Tools von HubSpot

Verwandte Artikel

Erfahren Sie alles über Conversational AI, Vorteile für Unternehmen und Integrationstipps für Ihren Kundenservice.

KOSTENLOS HERUNTERLADEN