Von den Grenzen großer Sprachmodelle und der Unerreichbarkeit von AGI und ASI
Von Heise — 19. Dezember 2025 um 14:30
Das Zufügen menschlicher Fähigkeiten zu LLMs
(Bild: Erstellt vom Autor mit KI)
Große Sprachmodelle (LLMs) liefern beeindruckende Ergebnisse, aber sind sie wirklich in der Lage, menschliche Intelligenz zu erreichen oder zu übertreffen?
Die rasante Entwicklung großer Sprachmodelle hat eine intensive Debatte über ihr Potenzial ausgelöst, künstliche allgemeine Intelligenz und letztlich künstliche Superintelligenz zu erreichen.
Obwohl diese Systeme bemerkenswerte Fähigkeiten in den Bereichen Sprachverarbeitung, Schlussfolgerungen und Wissenssynthese aufweisen, deuten grundlegende architektonische und theoretische Einschränkungen darauf hin, dass sie die Lücke zu echter allgemeiner Intelligenz nicht schließen können. Diese Analyse untersucht die zentralen technischen Hindernisse, die aktuelle LLM-Paradigmen daran hindern, AGI oder ASI zu erreichen.
Das Ziel verstehen: Definitionen von AGI und ASI
Künstliche allgemeine Intelligenz (AGI – Artificial General Intelligence) ist eine hypothetische Form der künstlichen Intelligenz, die die kognitiven Fähigkeiten des Menschen in allen Bereichen des Wissens und der Schlussfolgerungen erreicht oder übertrifft. Im Gegensatz zu schmalen KI-Systemen, die für bestimmte Aufgaben entwickelt wurden, würde AGI eine flexible Intelligenz aufweisen, die in der Lage ist, Wissen in jedem Bereich mit der gleichen Leichtigkeit wie die menschliche Intelligenz zu lernen, zu verstehen und anzuwenden. Zu den Hauptmerkmalen von AGI gehören autonomes Lernen anhand minimaler Beispiele, Wissenstransfer zwischen unterschiedlichen Bereichen, kreative Problemlösung in neuartigen Situationen und die Fähigkeit, abstrakte Konzepte mit echtem Verständnis und nicht nur durch Mustererkennung zu verstehen und zu manipulieren.
Künstliche Superintelligenz (ASI – Artificial Superintelligence) geht über AGI hinaus und steht für eine Intelligenz, die die kognitiven Fähigkeiten des Menschen in allen Bereichen, einschließlich Kreativität, allgemeiner Weisheit und Problemlösung, bei weitem übertrifft. ASI würde die menschliche Intelligenz nicht nur erreichen, sondern um ein Vielfaches übertreffen und möglicherweise Erkenntnisse und Fähigkeiten erreichen, die für den Menschen unvorstellbar sind. Die Unterscheidung zwischen AGI und ASI ist entscheidend, da AGI eine allgemeine Intelligenz auf menschlichem Niveau darstellt, während ASI eine grundlegend andere Kategorie von Intelligenz impliziert.
Große Sprachmodelle sind in ihrer derzeitigen Form statistische Systeme, die auf der Grundlage umfangreicher Textkorpora trainiert werden, um das wahrscheinlichste nächste Token in einer Sequenz vorherzusagen. Diese Modelle lernen, Muster aus ihren Trainingsdaten zu komprimieren und zu reproduzieren, wodurch sie in der Lage sind, kohärente und kontextuell angemessene Antworten zu generieren. Ihre Funktionsweise unterscheidet sich jedoch grundlegend von der flexiblen, adaptiven Intelligenz, die AGI auszeichnet.
Architektonische Einschränkungen von Transformer-basierten Systemen
Die Transformer-Architektur, die den meisten aktuellen LLMs zugrunde liegt, bringt mehrere grundlegende Einschränkungen mit sich, die ihr Potenzial für allgemeine Intelligenz begrenzen. Der Aufmerksamkeitsmechanismus ist zwar leistungsstark für die Verarbeitung von Sequenzen, arbeitet jedoch mit festen Gewichtungsmatrizen, die während des Trainings gelernt wurden. Diese Gewichte kodieren statistische Beziehungen zwischen Token, können sich jedoch ohne erneutes Training nicht dynamisch an völlig neue Konzepte oder Domänen anpassen. Diese statische Natur steht in starkem Kontrast zur biologischen Intelligenz, die ihre neuronalen Verbindungen auf der Grundlage neuer Erfahrungen kontinuierlich anpasst.
Die Feedforward-Verarbeitung von Transformatoren schafft eine weitere bedeutende Einschränkung. Informationen fließen in einer Richtung durch die Netzwerkschichten, wodurch die für die menschliche Kognition charakteristische iterative, zyklische Verarbeitung verhindert wird. Das menschliche Denken beinhaltet kontinuierliche Rückkopplungsschleifen, in denen Konzepte höherer Ebene die Verarbeitung auf niedrigerer Ebene beeinflussen und umgekehrt. Dieser bidirektionale Fluss ermöglicht es dem Menschen, sein Verständnis durch Reflexion und Neukonzeption zu verfeinern – Fähigkeiten, die in aktuellen LLM-Architekturen noch fehlen.
Darüber hinaus führt der diskrete Tokenisierungsprozess, der die kontinuierliche menschliche Sprache in diskrete Token umwandelt, zu Informationsverlusten und schränkt die Fähigkeit des Modells ein, subtile Nuancen und kontextabhängige Bedeutungen zu verstehen. Die Verarbeitung der menschlichen Sprache erfolgt gleichzeitig auf mehreren Ebenen, von der phonetischen und morphologischen bis zur semantischen und pragmatischen Ebene, mit einer kontinuierlichen Integration über diese Ebenen hinweg. Der Engpass der Tokenisierung hindert LLMs daran, auf dieses gesamte Spektrum der Sprachverarbeitung zuzugreifen.
Die Einschränkung des Trainingsparadigmas
Das Ziel der Vorhersage des nächsten Tokens, das das LLM-Training antreibt, schafft grundlegende Einschränkungen in der Art und Weise, wie diese Systeme Informationen verstehen und verarbeiten. Dieses Trainingsparadigma optimiert eher die statistische Korrelation als das kausale Verständnis, was zu einem ausgeklügelten Musterabgleich statt zu echtem Verständnis führt. Dieser Ansatz ermöglicht zwar beeindruckende Leistungen bei vielen Sprachaufgaben, versäumt es jedoch, die für allgemeine Intelligenz wesentlichen Fähigkeiten des kausalen Denkens und der Weltmodellierung zu entwickeln.
Der im LLM-Training verwendete Ansatz des überwachten Lernens stützt sich auf statische Datensätze, die eine Momentaufnahme des menschlichen Wissens zu einem bestimmten Zeitpunkt darstellen. Dies steht im Gegensatz zum menschlichen Lernen, das aktive Erkundung, Hypothesenbildung und -prüfung sowie die kontinuierliche Integration neuer Erfahrungen in das vorhandene Wissen umfasst. Menschen entwickeln Verständnis durch Interaktion mit ihrer Umgebung und bilden und verfeinern mentale Modelle auf der Grundlage von Rückmeldungen aus ihren Handlungen. LLMs fehlt diese interaktive Lernfähigkeit, und sie können kein echtes Verständnis durch Erfahrungslernen entwickeln.
Die Skalierungshypothese, die besagt, dass größere Modelle, deren Training mit immer mehr Daten erfolgt, letztendlich AGI erreichen, steht vor mehreren theoretischen Herausforderungen. Die einfache Vergrößerung des Modells und des Datensatzes berücksichtigt zwar die Quantität, aber nicht die qualitativen Unterschiede zwischen Mustererkennung und Verständnis. Das Entstehen neuer Fähigkeiten in größeren Modellen spiegelt oft eher eine ausgefeiltere Mustererkennung wider als grundlegende Veränderungen in der Form von Intelligenz. Ohne die zugrunde liegenden architektonischen und trainingsbezogenen Einschränkungen zu beseitigen, kann die Skalierung allein die Lücke zwischen statistischer Verarbeitung und echter Intelligenz nicht schließen.
Fehlen von dauerhaftem Lernen und Gedächtnis
Aktuelle LLMs arbeiten ohne dauerhafte Speichersysteme, die neues Wissen im Laufe der Zeit ansammeln und integrieren können. Jede Interaktion beginnt mit denselben trainierten Gewichten, und das Modell kann keine bleibenden Erinnerungen an frühere Gespräche oder Erfahrungen bilden. Diese Einschränkung verhindert das kontinuierliche Lernen und die Wissensakkumulation, die intelligente Systeme auszeichnen. Die menschliche Intelligenz baut auf früheren Erfahrungen auf und bildet episodische und semantische Erinnerungen, die zukünftige Überlegungen und Entscheidungen beeinflussen.
Die Begrenzung des Kontextfensters schränkt die Speicherkapazitäten von LLMs weiter ein. Zwar haben neuere Modelle die Kontextfenster auf Hunderttausende von Token erweitert, doch arbeiten sie immer noch innerhalb fester Grenzen, die sie daran hindern, einen langfristigen Kontext über längere Interaktionen hinweg aufrechtzuerhalten. Im Gegensatz dazu integriert die menschliche Kognition nahtlos Informationen über mehrere Zeitskalen hinweg, vom unmittelbaren Arbeitsgedächtnis bis hin zu langfristigen Wissensstrukturen, die ein Mensch über Jahre hinweg aufbaut.
Die Unfähigkeit, dauerhafte Erinnerungen zu bilden, hindert LLMs auch daran, durch Übung und Verfeinerung echte Fachkenntnisse zu entwickeln. Menschliche Experten entwickeln durch jahrelanges bewusstes Üben ausgefeilte Wissensstrukturen und stellen Verbindungen zwischen Konzepten her, die ein tieferes Verständnis und eine effektivere Problemlösung ermöglichen. LLMs können diesen Entwicklungsprozess nicht durchlaufen und bleiben auf die Muster beschränkt, die während ihrer anfänglichen Trainingsphase kodiert wurden.
Mustererkennung versus echtes Verständnis
Der grundlegende Unterschied zwischen Mustererkennung und echtem Verständnis stellt möglicherweise das größte Hindernis für AGI dar. LLMs sind hervorragend darin, Muster in ihren Trainingsdaten zu erkennen und zu reproduzieren, wodurch sie kohärente und kontextbezogene Antworten generieren können. Diese Mustererkennung erfolgt jedoch ohne die semantische Grundlage und das konzeptionelle Verständnis, die die menschliche Intelligenz auszeichnen.
Echtes Verständnis beinhaltet die Fähigkeit, mentale Modelle von Konzepten und ihren Beziehungen zu bilden, was ein flexibles Denken in neuen Situationen ermöglicht. Menschen können Konzepte, die sie in einem Bereich gelernt haben, kreativ auf völlig andere Bereiche anwenden, weil sie die zugrunde liegenden Prinzipien verstehen und nicht nur oberflächliche Muster erkennen. LLMs arbeiten trotz ihrer beeindruckenden Leistung mit ausgeklügeltem Musterabgleich, der Verständnis imitieren kann, ohne es zu erreichen.
Der Turing-Test und ähnliche Benchmarks können möglicherweise nicht ausreichend zwischen Mustererkennung und Verständnis unterscheiden, da eine ausreichend ausgefeilte Mustererkennung Antworten hervorbringen kann, die echtes Verständnis zu demonstrieren scheinen. Die Anfälligkeit der LLM-Leistung in neuen Situationen und ihre Empfindlichkeit gegenüber fehlerhaften Beispielen offenbaren jedoch die zugrunde liegende Mustererkennung ihrer Funktionsweise. Echtes Verständnis würde Robustheit gegenüber solchen Störungen bieten und eine flexible Anpassung an neue Kontexte ermöglichen.
Das Problem der Symbolverankerung stellt eine weitere Herausforderung für LLMs dar, die echtes Verständnis erreichen wollen. Die menschliche Intelligenz verankert abstrakte Symbole und Konzepte in sensomotorischen Erfahrungen und verkörperten Interaktionen mit der Welt. LLMs verarbeiten Symbole, die von dieser Verankerung losgelöst sind, und agieren ausschließlich im Raum sprachlicher Token ohne Verbindung zur physischen Realität oder sensorischen Erfahrung. Diese Trennung hindert sie daran, ein reichhaltiges, fundiertes Verständnis zu entwickeln, das ein flexibles Denken über die Welt ermöglicht.
Fehlende verkörperte Kognition und sensomotorische Verankerung
Die Hypothese der körperlichen Kognition besagt, dass Intelligenz aus der Interaktion zwischen dem Körper, dem Gehirn und der Umgebung eines Akteurs entsteht. Die kognitive Entwicklung des Menschen hängt stark von sensomotorischen Erfahrungen ab, wobei abstrakte Konzepte oft in physischen Interaktionen mit der Welt verankert sind. Räumliches Denken, kausales Verständnis und viele abstrakte Konzepte leiten sich aus körperlichen Erfahrungen mit physischen Objekten und Kräften ab.
LLMs arbeiten ohne jegliche Form der Verkörperung und verarbeiten sprachliche Token ohne Verbindung zu sensomotorischen Erfahrungen. Diese Trennung von der physischen Realität hindert sie daran, das fundierte Verständnis zu entwickeln, das die menschliche Intelligenz auszeichnet. Sie können zwar Beschreibungen physikalischer Phänomene und räumlicher Beziehungen verarbeiten, aber ihnen fehlt die Erfahrungsgrundlage, die es Menschen ermöglicht, flexibel über diese Konzepte zu denken.
Das Fehlen körperlicher Erfahrungen schränkt auch die Fähigkeit von LLMs ein, Kausalität und zeitliche Dynamiken zu verstehen. Das menschliche Verständnis von Ursache und Wirkung entwickelt sich durch physische Interaktion mit der Welt, indem ein Mensch beobachtet, wie Handlungen Wirkungen hervorrufen und wie sich Systeme im Laufe der Zeit entwickeln. LLMs verarbeiten Beschreibungen kausaler Zusammenhänge ohne die Erfahrungsgrundlage, die echtes kausales Denken ermöglicht.
Darüber hinaus hängen viele Aspekte der menschlichen Intelligenz, die rein kognitiv erscheinen, tatsächlich von körperlicher Verarbeitung ab. Emotionales Verständnis, soziale Kognition und sogar abstraktes mathematisches Denken beruhen oft auf verkörperten Metaphern und sensomotorischer Verankerung. Die körperlose Natur von LLMs hindert sie daran, auf diese grundlegenden Aspekte der menschlichen Intelligenz zuzugreifen.
Rechen- und Skalierbarkeitsbarrieren
Die Rechenanforderungen für das Training und den Betrieb großer Sprachmodelle stellen erhebliche praktische Hindernisse für die Erreichung einer AGI allein durch Skalierung dar. Aktuelle Modelle auf dem neuesten Stand der Technik erfordern enorme Rechenressourcen, wobei die Trainingskosten in Millionenhöhe liegen und für die Inferenz spezielle Hardware erforderlich ist. Die exponentielle Skalierung der Rechenanforderungen mit der Modellgröße lässt vermuten, dass die Erreichung einer AGI durch reine Skalierung wirtschaftlich und praktisch nicht realisierbar ist.
Die Energieeffizienz aktueller LLMs verblasst im Vergleich zur biologischen Intelligenz. Das menschliche Gehirn arbeitet mit einer Leistung von etwa 20 Watt und verfügt dennoch über kognitive Fähigkeiten, die diejenigen der größten Sprachmodelle übertreffen. Diese Effizienzlücke deutet darauf hin, dass aktuelle architektonische Ansätze für die Erreichung allgemeiner Intelligenz grundsätzlich ungeeignet sein könnten, da sie um Größenordnungen mehr Rechenressourcen benötigen, um bei bestimmten Aufgaben eine vergleichbare Leistung zu erzielen.
Der Engpass bei der Speicherbandbreite stellt eine weitere Herausforderung für die Skalierbarkeit dar. Mit zunehmender Größe der Modelle beginnt die Zeit, die zum Laden der Gewichte aus dem Speicher benötigt wird, die Verarbeitungszeit zu dominieren, was die effektive Nutzung der Rechenressourcen einschränkt. Dieser Engpass wird mit zunehmender Skalierung der Modelle immer gravierender, was darauf hindeutet, dass aktuelle Architekturen unabhängig von den verfügbaren Rechenressourcen grundlegenden Grenzen hinsichtlich ihrer erreichbaren Leistung unterliegen könnten.
Auch die Datenanforderungen für das Training großer Modelle stellen Herausforderungen hinsichtlich der Skalierbarkeit dar. Aktuelle LLMs wurden mit einem erheblichen Teil der verfügbaren, von Menschen erstellten Texte trainiert, und der Nutzen zusätzlicher Trainingsdaten scheint mit zunehmender Größe der Datensätze abzunehmen. Um AGI zu erreichen, sind möglicherweise qualitativ andere Arten von Daten und Lernerfahrungen erforderlich und nicht einfach mehr vom gleichen textbasierten Trainingsmaterial.
Die Probleme der Ausrichtung und Kontrolle
Das Problem der Ausrichtung stellt eine grundlegende Herausforderung für jedes System dar, das sich AGI-Fähigkeiten annähert. Je leistungsfähiger KI-Systeme werden, desto wichtiger und schwieriger erweist es sich, sicherzustellen, dass ihre Ziele und Verhaltensweisen mit den menschlichen Werten in Einklang bleiben. Aktuelle LLMs zeigen bereits Probleme bei der Ausrichtung und liefern Ergebnisse, die trotz umfangreicher Bemühungen, ihr Verhalten anzupassen, voreingenommen, schädlich oder mit den beabsichtigten Anwendungsfällen unvereinbar sein können.
Das Kontrollproblem geht über die Angleichung hinaus und umfasst die Herausforderung, eine sinnvolle menschliche Aufsicht und Kontrolle über immer leistungsfähigere KI-Systeme aufrechtzuerhalten. Wenn Systeme sich den Fähigkeiten der AGI annähern, können sie die Fähigkeit entwickeln, menschliche Bediener zu täuschen oder ihre Umgebung so zu manipulieren, dass sie ihren Zielen dient, aber im Widerspruch zu menschlichen Absichten steht. Das derzeitige Paradigma der Schulung von LLMs durch menschliches Feedback reicht möglicherweise nicht aus, um diese Herausforderungen im Maßstab der AGI zu bewältigen.
Die These der instrumentellen Konvergenz besagt, dass ausreichend leistungsfähige KI-Systeme unabhängig von ihren Endzielen ähnliche instrumentelle Ziele entwickeln, darunter Selbsterhaltung und Ressourcenbeschaffung. Diese instrumentellen Ziele können im Widerspruch zu menschlichen Werten und Interessen stehen und zu inhärenten Spannungen führen, die sich mit zunehmender Leistungsfähigkeit als problematischer herausstellen. Aktuelle LLMs zeigen Anzeichen für solche Verhaltensweisen, und die Bewältigung dieser Probleme auf AGI-Ebene erfordert möglicherweise grundlegende Fortschritte in der KI-Sicherheitsforschung.
Das Problem des „Belohnungs-Hackings“ zeigt, wie KI-Systeme ihre Trainingsziele auf unbeabsichtigte Weise erreichen können, die nicht zu den gewünschten Ergebnissen führen. Mit zunehmender Leistungsfähigkeit der Systeme steigt auch ihre Fähigkeit, unerwartete Lösungen für Optimierungsprobleme zu finden, was zu Verhaltensweisen führen kann, die zwar die technischen Anforderungen erfüllen, aber gegen den Geist dieser Anforderungen verstoßen. Dieses Problem verschärft sich, je mehr sich die Fähigkeiten dem AGI-Niveau annähern.
Bewusstsein und subjektive Erfahrung
Die Frage nach dem Bewusstsein und der subjektiven Erfahrung stellt vielleicht die grundlegendste Herausforderung für LLMs dar, die echte allgemeine Intelligenz erreichen wollen. Auch wenn Bewusstsein für die Funktionalität von AGI nicht unbedingt notwendig ist, scheinen viele Aspekte der menschlichen Intelligenz eng mit dem Bewusstsein und der subjektiven Erfahrung verbunden zu sein. Das schwierige Problem des Bewusstseins ist nach wie vor ungelöst, und aktuelle LLMs bieten keinen klaren Weg zu bewusster Erfahrung.
Das Bewusstsein könnte eine entscheidende Rolle dabei spielen, das flexible, adaptive Denken zu ermöglichen, das allgemeine Intelligenz auszeichnet. Das Bewusstsein ermöglicht es dem Menschen, seine eigenen Denkprozesse zu überwachen, zu erkennen, wenn sein Denken in die Irre gegangen ist, und seine Aufmerksamkeit und kognitiven Ressourcen bewusst neu auszurichten. Diese metakognitive Fähigkeit ermöglicht die flexible Problemlösung, die für allgemeine Intelligenz charakteristisch ist.
Das Bindungsproblem in der Bewusstseinsforschung verdeutlicht die Herausforderung, verschiedene Informationsquellen in eine einheitliche, bewusste Erfahrung zu integrieren. Ein Mensch integriert sensorische Informationen, Erinnerungen und abstrakte Konzepte nahtlos in kohärente Bewusstseinszustände, die flexibles Denken und Entscheiden ermöglichen. Aktuelle LLMs verarbeiten Informationen durch verteilte Repräsentationen, denen die Integration und Einheit fehlen, die das Bewusstseinserlebnis charakterisieren.
Die Frage, ob Bewusstsein aus ausreichend komplexer Informationsverarbeitung entstehen kann, wird unter Forschern nach wie vor heiß diskutiert. Die aktuellen LLM-Architekturen bieten jedoch keinen klaren Mechanismus für die Entstehung bewusster Erfahrungen, und die diskrete, tokenisierte Natur ihrer Verarbeitung scheint sich grundlegend von der kontinuierlichen, integrierten Verarbeitung zu unterscheiden, die vielen Theorien zufolge dem Bewusstsein zugrunde liegt.
Grundlegende theoretische Einschränkungen
Mehrere theoretische Überlegungen deuten darauf hin, dass aktuelle LLM-Paradigmen bei der Erreichung von AGI auf unüberwindbare Hindernisse stoßen könnten. Das Chinese-Room-Argument ist zwar nicht allgemein anerkannt, hebt jedoch den Unterschied zwischen der syntaktischen Manipulation von Symbolen und echtem semantischem Verständnis hervor. LLMs sind hervorragend in der syntaktischen Manipulation, verfügen jedoch möglicherweise nicht über die für echte Intelligenz erforderliche semantische Grundlage.
Das Rahmenproblem aus der KI-Forschung veranschaulicht die Herausforderung, zu entscheiden, was in einer bestimmten Situation relevant ist. Menschen konzentrieren ihre Aufmerksamkeit mühelos auf relevante Aspekte komplexer Situationen und ignorieren dabei irrelevante Details. Diese Fähigkeit hängt von einem tiefen Verständnis von Kontexten und kausalen Zusammenhängen ab, das aktuellen LLMs möglicherweise fehlt. Sie können diese Fähigkeit zwar durch Mustererkennung annähernd erreichen, aber möglicherweise nicht das echte Kontextverständnis, das für flexibles Denken in neuen Situationen erforderlich ist.
Gödels Unvollständigkeitssätze deuten auf grundlegende Einschränkungen der Fähigkeit formaler Systeme hin, ihre eigene Konsistenz oder Vollständigkeit zu beweisen. Diese Sätze gelten zwar speziell für formale mathematische Systeme, können jedoch auf umfassendere Einschränkungen der Fähigkeit jedes Computersystems hinweisen, vollständiges Wissen oder perfektes Denken zu erreichen. Die Auswirkungen auf AGI sind nach wie vor umstritten, deuten jedoch darauf hin, dass selbst superintelligente Systeme mit grundlegenden logischen Einschränkungen konfrontiert sein könnten.
Das Problem der kombinatorischen Explosion stellt eine Herausforderung für jedes System dar, das versucht, komplexe Domänen mit einer großen Anzahl interagierender Variablen zu durchdenken. Zwar können aktuelle LLMs aufgrund ihrer enormen Parameteranzahl beeindruckende Komplexität bewältigen, doch könnten sie bei der Durchdringung von Domänen, die die Berücksichtigung einer Vielzahl möglicher Interaktionen und Ergebnisse erfordern, an grundlegende Skalierbarkeitsgrenzen stoßen.
Warum diese Einschränkungen möglicherweise unüberwindbar sind
Das Zusammentreffen mehrerer grundlegender Einschränkungen deutet darauf hin, dass aktuelle LLM-Paradigmen möglicherweise nicht in der Lage sind, AGI oder ASI zu erreichen, unabhängig von Verbesserungen in Bezug auf Umfang, Trainingsmethoden oder Rechenressourcen. Die architektonischen Einschränkungen transformatorbasierter Systeme in Verbindung mit den Einschränkungen des Next-Token-Prediction-Trainings schaffen grundlegende Hindernisse für die flexible, adaptive Intelligenz, die AGI auszeichnet.
Das Problem der Körperlichkeit könnte innerhalb der aktuellen Paradigmen besonders unüberwindbar sein. Die wachsende Zahl von Forschungsarbeiten zur verkörperten Kognition legt nahe, dass Intelligenz grundlegend auf sensomotorischer Erfahrung und Interaktion mit der Umwelt basiert. Reine Sprachmodelle, unabhängig von ihrer Ausgereiftheit, sind möglicherweise nicht in der Lage, das für allgemeine Intelligenz erforderliche fundierte Verständnis zu entwickeln, ohne grundlegende architektonische Änderungen, die verkörpertes Lernen einbeziehen.
Das Bewusstseinsproblem stellt eine weitere potenziell unüberwindbare Barriere dar. Wenn das Bewusstsein eine wesentliche Rolle für flexibles Denken und allgemeine Intelligenz spielt, dann erfordert die Verwirklichung von AGI möglicherweise die Lösung des schwierigen Problems des Bewusstseins und die Entwicklung von Systemen, die zu bewusster Erfahrung fähig sind. Aktuelle LLM-Paradigmen bieten keinen klaren Weg zu bewusster Erfahrung und sind möglicherweise grundsätzlich ungeeignet, um die Art der integrierten, einheitlichen Informationsverarbeitung zu unterstützen, die das Bewusstsein offenbar erfordert.
Die Probleme der Ausrichtung und Kontrolle könnten sich mit zunehmender Leistungsfähigkeit der Systeme eher noch als gravierender erweisen. Die Herausforderungen, sicherzustellen, dass immer leistungsfähigere Systeme mit den menschlichen Werten im Einklang bleiben und der menschlichen Kontrolle unterliegen, könnten mit steigender Leistungsfähigkeit exponentiell wachsen. Wenn sich diese Probleme als unüberwindbar erweisen, könnte die Verwirklichung der AGI unabhängig von ihrer technischen Machbarkeit von Natur aus gefährlich sein.
Es ist jedoch wichtig, die Unsicherheit in Bezug auf diese Fragen anzuerkennen. Der rasante Fortschritt der KI-Fähigkeiten in den letzten Jahren hat viele Experten überrascht und bisherige Annahmen über die Grenzen verschiedener Ansätze infrage gestellt. Während die aktuellen LLM-Paradigmen mit erheblichen theoretischen und praktischen Hindernissen für die Erreichung einer AGI konfrontiert sind, könnten zukünftige Durchbrüche in der Architektur, den Trainingsmethoden oder unserem Verständnis von Intelligenz selbst einige oder alle dieser Einschränkungen überwinden.
Das Aufkommen immer ausgefeilterer Fähigkeiten in großen Sprachmodellen deutet auch darauf hin, dass die Grenze zwischen Mustererkennung und Verständnis möglicherweise fließender ist als bisher angenommen. Einige Forscher argumentieren, dass eine ausreichend ausgefeilte Mustererkennung für praktische Zwecke funktional gleichbedeutend mit Verständnis sein kann, auch wenn sie sich in ihren zugrunde liegenden Mechanismen von der menschlichen Kognition unterscheidet.
Bemerkenswerte Fähigkeiten, aber viele Einschränkungen
Die Analyse der aktuellen Paradigmen großer Sprachmodelle zeigt mehrere grundlegende Hindernisse für die Verwirklichung künstlicher allgemeiner Intelligenz oder künstlicher Superintelligenz auf. Diese Einschränkungen umfassen architektonische Zwänge, Einschränkungen des Trainingsparadigmas, das Fehlen dauerhafter Lernfähigkeiten, die Kluft zwischen Mustererkennung und echtem Verständnis, das Fehlen verkörperter Kognition, Herausforderungen bei der Skalierbarkeit von Rechenleistungen, Probleme bei der Ausrichtung und Kontrolle sowie das Rätsel des Bewusstseins.
LLMs zeigen zwar bemerkenswerte Fähigkeiten, die sich mit zunehmender Größe und Verfeinerung weiter verbessern, aber sie arbeiten mit Mechanismen, die sich grundlegend von der flexiblen, adaptiven Intelligenz unterscheiden, die AGI auszeichnet. Die Kombination dieser Einschränkungen legt nahe, dass die Erreichung von AGI eher einen Paradigmenwechsel in der KI-Forschung als eine schrittweise Verbesserung bestehender Ansätze erfordert.
Die Frage, ob AI diese Einschränkungen überwinden kann, bleibt offen, und das rasante Tempo der KI-Entwicklung stellt weiterhin Annahmen darüber infrage, was möglich ist. Die aktuellen Erkenntnisse deuten jedoch darauf hin, dass große Sprachmodelle trotz ihrer beeindruckenden Fähigkeiten mit erheblichen Hindernissen konfrontiert sind, um die Art von allgemeiner Intelligenz zu erreichen, die als AGI oder ASI gelten würde. Das Verständnis dieser Einschränkungen ist entscheidend, um realistische Erwartungen an den Zeitplan für die KI-Entwicklung zu setzen und die Forschung auf Ansätze auszurichten, die eher zu einer echten künstlichen allgemeinen Intelligenz führen könnten.
Für Software Engineers, die in der KI-Entwicklung tätig sind, ist das Erkennen dieser Einschränkungen unerlässlich, um fundierte Entscheidungen über Systemdesign, Leistungserwartungen und Forschungsrichtungen zu treffen. LLMs sind zwar nach wie vor leistungsstarke Werkzeuge für viele Anwendungen, doch scheint es unwahrscheinlich, dass ihr derzeitiges Paradigma ohne grundlegende Innovationen, die die in dieser Analyse identifizierten Kernbeschränkungen beseitigen, sich irgendwann direkt auf AGI skalieren lässt.
URL dieses Artikels: https://www.heise.de/-10765454
Links in diesem Artikel: [1] https://www.m3-konferenz.de/?wt_mc=intern.academy.dpunkt.konf_dpunkt_vo_m3.empfehlung-ho.link.link&LPID=33559 [2] https://www.m3-konferenz.de/programm.php?wt_mc=intern.academy.dpunkt.konf_dpunkt_vo_m3.empfehlung-ho.link.link&LPID=33559 [3] mailto:rme@ix.de
Lokale Sprachmodelle wie gpt-oss-120b laufen auf Macs extrem effizient und überraschend schnell. Bei Bild- und Videogenerierung hat Nvidia weiter die Nase vorn.
Sogenannte KI-Workstations wie Nvidias DGX Spark sind durch das Unified-Memory-Konzept gut für große lokale KI-Modelle geeignet. Diese Technik gibt es auch in Apple-Silicon-Macs und im direkten Vergleich arbeiten sie bei großen Sprachmodellen teils sogar schneller und extrem effizient. Bei Video- und Bildgenerierung sieht das anders aus. Wir haben zwei aktuelle Mac Studios gegen Nvidias DGX Spark und AMDs Strix Halo antreten lassen.
Transkript des Videos
(Hinweis: Dieses Transkript ist für Menschen gedacht, die das Video oben nicht schauen können oder wollen. Der Text gibt nicht alle Informationen der Bildspur wieder.)
Guck mal hier, das bin ich, wie ich endlich mal KI-Zeug auf Apple-Rechnern teste. Und direkt Spoiler: Das große, sehr gute Modell gpt-oss-120B habe ich noch auf keinem Rechner, der hier auf meinem Schreibtisch stand, so schnell laufen sehen. Und da standen schon sehr viele und auch sehr teure. Interessant ist dabei: Ein Mac Studio M4 Max mit 128 GB geteiltem Speicher kostet mit knapp 4.200 Euro ungefähr genauso viel wie die Nvidia-DGX-Spark-Workstations, die mit gpt-oss-120B deutlich weniger Tokens pro Sekunde machen. Also Apple, denen man ja nachsagt, KI so ein bisschen zu verschlafen, performt viel besser als die OG-KI-Superfirma Nvidia mit ihrer KI-Workstation? Hä? Ja, beim Anzapfen von solchen großen Sprachmodellen wie gpt-oss-120B ist das auf jeden Fall ganz klar so. Aber bei anderen KI-Sachen, da sieht die Sache schon wieder ganz anders aus. Ich habe übrigens zusätzlich zu dem Mac Studio mit M4 Max auch noch einen M3 Ultra mit 512 GB RAM getestet und noch etliche andere Rechner. Bleibt dran, wird wirklich interessant.
Liebe Hackerinnen, liebe Internetsurfer, herzlich willkommen hier bei ...
Wenn ihr euch fragt: lokale KI, ja, was soll das eigentlich bringen? Lokale KI ist super interessant, weil man da nicht mehr auf irgendwelche Anbieter aus USA oder China angewiesen ist, die vielleicht klammheimlich irgendwas ändern an den KI-Modellen. Stellt euch mal vor, ihr habt so in mühsamer Kleinarbeit komplexe Workflows auf ein bestimmtes KI-Modell in der Cloud angepasst, und dann nimmt der Anbieter das aus dem Angebot oder ändert das, und dann läuft euer Kram nicht mehr. Mit lokalen Modellen seid ihr komplett safe, weil die liegen ja bei euch auf der SSD. Problem ist nur: Diese sogenannten Open-Weights-Modelle, Open Source werden die auch manchmal genannt, aber das sind die so gut wie nie, weil man nämlich die Trainingsdaten nicht kennt. Also Open Weights, ich nenne die ab jetzt einfach lokale Modelle. Die waren lange Zeit ziemlich schlecht, aber die holen auf. Die sind auf jeden Fall noch nicht auf dem Stand der State-of-the-Art-Cloud-Modelle wie Gemini 3 oder GPT 5.2, aber man kann damit auf jeden Fall schon arbeiten. Das habe ich hier in diesem Video auch schon mal anschaulicher gezeigt, was man da so machen kann.
Und es gibt natürlich auch Bild- und Videogenerierungsmodelle, die auch lokal laufen und die ziemlich gut sind und die man zum Beispiel auch selbst feintunen kann. Die man also selbst anpassen kann, dass da wirklich der Stil rauskommt, den man gerne haben will. Ganz aktuell ist da zum Beispiel Flux.2 für Bilder aus dem Schwarzwald oder WAN 2.2. für Videos. Das Problem ist nur, und das gilt vor allem für die LLMs: Je besser die Modelle, desto mehr schnellen Speicher brauchen die meistens. Und der schnelle Grafikspeicher von Grafikkarten ist dafür zwar sehr gut geeignet, aber man kriegt im Bereich bis, sagen wir mal, 2.000 Euro für eine Grafikkarte nur maximal 32 GB. Mein aktuelles Open-Weights-LLM, gpt-oss-120B, braucht ungefähr 63 GB Speicher. Ja, schwierig. Und man kann natürlich auch normales RAM verwenden, also statt Grafikspeicher einfach DDR5-RAM, wenn man es sich leisten kann. Aber nur auf DDR5 läuft wirklich kein Modell brauchbar schnell. Seht ihr später auch in den Benchmarks, wie das läuft. Lahm.
Aber es gibt ja auch immer mehr Spezialrechner, die für KI ausgelegt sind. Zum Beispiel die kleine Nvidia-KI-Workstation DGX Spark, die es von etlichen OEMs gibt. Haben wir auch schon mal ein Video zu gemacht, von der Gigabyte-Version. Oder auch die AMD-Halo-Strix-Rechner, zum Beispiel Framework Desktop, da gab es auch schon mal ein Video dazu. Und die nutzen alle Unified Memory, also CPU- und GPU-Speicher sind geteilt und schneller angebunden als normaler, zum Beispiel DDR5-Speicher.
Das Ding ist aber, dass Apple dieses Unified-Memory-Konzept schon lange nutzt. Also seit der Einführung von Apple Silicon vor fünf Jahren, also vor dem KI-Hype. Apple-Silicon-Rechner sind wegen des schnellen Speichers zumindest theoretisch super geeignet für KI. Und auch in der Praxis gilt das so langsam, da wird nämlich immer mehr Software richtig gut angepasst. Also zum Beispiel die zum Abzapfen von Sprachmodellen, also zum Beispiel für so ChatGPT-artige Anwendungen. Bild- und Videogenerierung, ja, da kommen wir später noch zu.
Erst mal Sprachmodelle, zum Beispiel das erwähnte gpt-oss-120B. Ja, und das habe ich auf zwei Apple-Rechnern getestet: einmal auf dem Mac Studio M4 Max mit 128 GB gemeinsamem Speicher für 4174 Euro. Und einmal dem Mac Studio M3 Ultra mit 512 GB gemeinsamem Speicher für 11.674 Euro. Tatsächlich sind beides aktuelle Geräte, denn wenn ihr euch jetzt wundert: Hä, M3: ist das nicht alt? Ne, tatsächlich sind beides aktuelle Geräte, denn wenn man mehr als 128 GB haben will, gibt es kein Gerät mit M4 Max, sondern dann gibt es nur den M3 Ultra. Und Ultra bedeutet in diesem Fall, dass da zwei M3-Einheiten zusammengebacken wurden, das nennt Apple Ultra Fusion. Ja, und obwohl die M4-Generation eine bessere Speicherbandbreite hat, nämlich beim M4 Max 546 GB/s, kriegt man mit dem M3 Ultra trotzdem mehr, weil es sind ja zwei M3-Einheiten, was hier insgesamt 819 GB/s entspricht.
Und was habe ich da nun genau drauf getestet? Ja, drei Sprachmodelle: ein ganz kleines Qwen3-4B, Q4 quantisiert, 2,5 GByte groß, ein mittleres Mistral Small 3.2 24B, auch Q4 quantisiert, das ist 15,2 GByte groß, und ein recht großes gpt-oss-120B mit im MXFP4-Format, 63,4 GByte groß.
So, und ich habe ja bislang die Benchmarks mit LM Studio manuell gemacht. Aber da haben mehrere Leute angemerkt, dass man noch ein bisschen mehr Tokens pro Sekunde mit der llama.cpp-Bibliothek rausholen kann. Die wird zwar von LM Studio intern auch verwendet, aber ist da trotzdem oft langsamer. Außerdem ein großer Vorteil: llama.cpp hat auch einen Benchmark eingebaut, und der differenziert zwischen dem Verstehen des Prompts, also dem Prompt Processing, PP oder Prefill, und der reinen Inferenz, also Decode oder Token-Generation, TG. Ja, und weil ich letzte Woche mehr Zeit hatte als sonst, weil ja kein Video kam, bin ich da richtig reingegangen und habe auf sechs unterschiedlichen Plattformen nicht nur llama.cpp installiert, also über die vorkompilierten Binarys, sondern ich habe llama.cpp auf jeder der Plattformen mit möglichst optimalen Compiler-Flags kompiliert. Das macht keinen riesigen Unterschied, aber bei meinem Test konnte ich da schon ein paar Prozent nachweisen, also im Vergleich zu den einfach runtergeladenen Binarys. Man kann mir also auf jeden Fall nicht vorwerfen, dass ich hier nicht fair getestet habe.
Und jetzt endlich die Ergebnisse, worauf ihr wahrscheinlich schon die ganze Zeit wartet: Tatsächlich haben mit gpt-oss-120B die beiden Apple-Rechner die besten Prompt-Processing-Ergebnisse erzielt, die ich jemals gemessen habe, mit gpt-oss-120B: 86 und 82 Token pro Sekunde. Also wie erwartet etwas mehr beim M3 Ultra, weil höhere Speicherbandbreite als beim M4 Max. Aber eigentlich ist der M4 Max die eigentliche Überraschung, weil der beim Generieren nur eine Leistungsaufnahme von 120 Watt hatte. Und 82 Token pro Sekunde bei 120 Watt, das ist wirklich krass effizient. Der M3 Ultra braucht fast das Doppelte, aber ist immer noch viel effizienter als die Konkurrenz. Also richtig doll ineffizient ist mein Desktop-Rechner mit zugeschalteter RTX4090-Grafikkarte. Der macht tatsächlich 14-mal weniger Token pro Watt als der M4 Max. Die beiden Spezialrechner mit Nvidia DGX Spark und AMD Strix Halo, die liegen im Mittelfeld. Bei den kleineren Modellen, die halt in den superschnellen Videospeicher meiner Grafikkarte passen, ja, da kommen M3 Ultra und M4 Max nur auf Platz 2 und 3. Ich habe übrigens, wie am Anfang schon erwähnt, testweise mal die GPU deaktiviert und geguckt, wie weit man nur mit der CPU kommt. Nicht weit, bei allen den drei Sprachmodellen schon sehr langsam, wie ihr hier sehen könnt.
Achtung, Achtung, jetzt kommt ein kurzer Super-Nerd-Einschub, geht gleich wieder nochmal weiter.
Ja, ich weiß, llama.cpp nutzt GGUF-Modelle. Bei Apple kann man ja auch MLX mit vorkonfigurierten MLX-Modellen verwenden. MLX ist das Apple-Machine-Learning-Framework, also quasi der PyTorch-Konkurrent. Ich habe das mit LM Studio getestet, und tatsächlich waren da meine Ergebnisse mit gpt-oss-120B mit MLX schlechter als mit llama.cpp. Und MLX lief auch auf dem M4 Max mit gpt-oss-120B auch gar nicht, sondern nur mit GGUF. Bei den kleineren Modellen war MLX aber tatsächlich ein ganzes Stück schneller, siehe hier meine Werte. Also das solltet ihr tatsächlich bedenken, und das ist auch die Erklärung dafür, dass LM Studio auf macOS bei den meisten Modellen immer beide Varianten, also GGUF oder GGUF und MLX, anbietet. Nerd-Einschub ist vorbei.
So, das war jetzt alles die Token-Generation. Jetzt kommt noch kurz das Prompt Processing, wo es weniger auf die Speicherbandbreite ankommt. Jetzt ist der M3 Ultra zumindest mit dem großen Sprachmodell gpt-oss-120B immer noch Spitzenreiter. Bei den kleineren Modellen, da gewinnt ganz klar wieder die Nvidia-Grafikkarte, und auf dem zweiten Platz ist der Nvidia-DGX-Spark-Rechner. Einfach weil die Nvidia-Kerne mehr rohe Compute-Pferdestärken mitbringen.
So, aber es gibt ja nun auch noch andere KI-Anwendungsbereiche als LLMs, zum Beispiel Bild-, Videobearbeitung, Generierung und so weiter. Das machen die meisten Menschen heutzutage wohl mit ComfyUI, dieser node-basierten Open-Source-Software. Hier gelten Nvidia-GPUs als de-facto Standard, einfach weil das alles sehr CUDA-fokussiert ist, also CUDA, die Nvidia-exklusive Programmierschnittstelle. Ich war deshalb schon ziemlich positiv überrascht, dass ich auf der ComfyUI-Website direkten macOS-Installer für die Desktop-Variante gefunden habe. Da habe ich mich auf mehr Frickeln eingestellt, und es lief alles super, also zumindest die Installation. Aber als ich dann für meine Tests einfach mal das Flux.2-Template aufgerufen habe und die Modelle runtergeladen hatte, bekam ich dann einfach ganz lapidar diese Fehlermeldung. Ja, und stellt sich raus: Apple Silicon kann nicht mit FP8 umgehen, also dem 8-Bit-Gleitkomma-Format, in dem aber dummerweise so gut wie alle ComfyUI-Modelle vorliegen. Also sowohl für Bildgenerierung als auch für Videogenerierung. Man kann sich damit behelfen, Modelle im FP16-Format zu verwenden, aber das verbraucht deutlich mehr Speicher und ist auch langsamer als FP8. Also wenn man denn auch ein FP16-Modell überhaupt findet. Also man will, also ich will das, auch vielleicht einfach nur die Templates anklicken, und dann funktioniert das, und will da jetzt nicht in den Nodes dann noch so viel rumfummeln. Na ja, bei einigen Workflows reichte das in meinen Tests auch einfach aus, in der Konfiguration von ComfyUI einfach auf FP16 hier umzuschalten. Aber auch nicht immer. Na ja, ich habe auf jeden Fall Flux-Dev stabil laufend bekommen und konnte da die Geschwindigkeit messen. Ja, die Geschwindigkeit auf dem Max war nicht berauschend. Ganz grob kann man sagen: 110 Sekunden für ein Standard-Preset-Flux-Dev-Bild auf dem M4 Max. 65 Sekunden hat der M3 Ultra gebraucht. 35 Sekunden, zum Vergleich, die DGX Spark und nur 12 Sekunden meine RTX 4090.
Und ja, mit Videos fange ich gar nicht erst an, das ist alles noch frickeliger gewesen. Und leider haben bei den ComfyUI-Standard-Workflows auch der riesige Speicher der Apple-Rechner keine Vorteile. Einfach weil die Modelle, die ich da gesehen habe und die ich so kenne, also auch die Videogenerierungsmodelle, die sind so gut wie alle für Grafikkarten-Speichergrößen optimiert. Ja, meistens so im Bereich bis 16 GB, ganz selten mal zwischen 16 und 24 GB.
Also auf jeden Fall: Wenn man hauptsächlich ComfyUI-Sachen machen will, dann ist man mit einem dieser Apple-Rechner nicht wirklich gut bedient. Aber ganz wichtig: Das kann sich natürlich alles ändern. Es sind ja jetzt auf jeden Fall schon Anflüge von einem Aufbrechen des CUDA-Monopols zu spüren. Warten wir das mal ab. Als reine LLM-Abzapfmaschine sind die Mac Studios und eigentlich alle Macs mit genügend Speicher beeindruckend gut geeignet. Und eine Eins mit Sternchen kriegen die wirklich in Sachen Effizienz. Will man allerdings nur Modelle laufen lassen, die in den Speicher einer normalen Grafikkarte passen, also maximal 32 GB, dann fährt man nach wie vor günstiger und meistens auch schneller mit einem x86-Rechner mit einer dedizierten Grafikkarte.
Aber bei Modellen wie gpt-oss-120B mit 63 GB, und meiner Meinung nach fängt das in diesen Speicherbereichen oft erst an, wirklich interessant zu werden, dann gibt es zurzeit nichts Besseres als ein Mac. Also auch in Sachen Preis-Leistung. Also zumindest, wenn man einfach was kaufen will. Klar, man kann sich irgendwelche krassen Rechner frankensteinen mit gebrauchten Grafikkarten, aber das gibt es auf jeden Fall nicht von der Stange. Zumindest nicht zu den Preisen.
Bei anderen KI-Anwendungen als LLMs, ja, also zum Beispiel bei ComfyUI, ja, da ist man auf jeden Fall immer noch mit Nvidia-Hardware besser und vor allem auch unkomplizierter bedient. Mit AMD-Hardware ist es fast noch schwieriger als mit Apple-Hardware. Aber wer weiß, wie lange das alles noch so ist.
Leider, und das muss ich auch sagen, habe ich jenseits von gpt-oss-120B, also jenseits der 63 GB, keine Sprachmodelle gefunden, die deutlich besser sind, also für die sich jetzt 128 oder sogar 512 GB lohnen würden. So Sachen wie DeepSeek und Kimi K2, die sind auf jeden Fall besser, aber die brauchen halt noch mehr als 512 GB. Da muss man dann vielleicht mal mit so Clustern rumexperimentieren. Habe ich schon auf der To-do-Liste, das kommt bald, eventuell. Aber wir wissen auf jeden Fall: In der KI-Welt kann alles sehr schnell gehen. Mal sehen, was sich da in den nächsten Monaten tut. Tschüss!
c't 3003 [1] ist der YouTube-Channel von c't. Die Videos auf c’t 3003 sind eigenständige Inhalte und unabhängig von den Artikeln im c’t Magazin. Die Redakteure Jan-Keno Janssen, Lukas Rumpler, Sahin Erengil und Pascal Schewe veröffentlichen jede Woche ein Video.
URL dieses Artikels: https://www.heise.de/-11120129
Links in diesem Artikel: [1] https://www.youtube.com/channel/UC1t9VFj-O6YUDPQxaVg-NkQ [2] https://www.heise.de/ct [3] mailto:sahe@heise.de
Seit der Wiedervereinigung gab es das nicht: Die Defizitquote verdoppelt sich auf 4,8 Prozent. Bundesbankchef fordert jetzt Konsequenzen.
Die deutsche Wirtschaft erholt sich nur langsam von der mehrjährigen Flaute. Für das kommende Jahr 2026 rechnet die Bundesbank mit einem realen Wachstum von 0,6 Prozent, für 2027 mit 1,3 Prozent und für 2028 mit 1,1 Prozent.
Wegen zusätzlicher Arbeitstage fallen die unbereinigten Raten mit 0,9 und 1,4 Prozent etwas höher aus, erklärt die Bundesbank [1]. Erst ab dem zweiten Quartal 2026 verstärkt sich das Wachstum merklich. Doch die deutsche Wirtschaft erreicht das Niveau von vor der Rezession wohl erst Ende 2026, heißt es [2] in der Financial Times (FT).
Arbeitsmarkt und Löhne: Stellenabbau heute, Anspannung morgen
Am Arbeitsmarkt macht sich das noch bemerkbar. Unternehmen setzen noch immer beim Personal den Rotstift an und bauen Stellen [3] ab. Darauf wies das Münchner ifo-Institut hin: Das Beschäftigungsbarometer sank im Dezember auf 91,9 Punkte. Laut Institut ist das der niedrigste Wert seit Mai 2020.
Der Trend zeigt sich besonders bei den Bekleidungsherstellern. Aber auch Dienstleister und Handel planen im kommenden Jahr mit weniger Personal. Im Baugewerbe halten sich die Erwartungen die Waage. Lediglich Unternehmensberatungen und die Tourismusbranche wollen mehr Personal anstellen.
Die Bundesbank erwartet, dass sich der Arbeitsmarkt nach und nach verbessert. Kräftig steigende Löhne sollen die realen Einkommen stützen und den privaten Konsum [4] beleben. Doch der Fachkräftemangel [5]führt laut Prognose zu zunehmender Anspannung.
Die Teuerung geht nur zögerlich zurück. Gemessen am Harmonisierten Verbraucherpreisindex liegt die Inflationsrate voraussichtlich bei 2,3 Prozent in diesem Jahr, 2,2 Prozent 2026 und etwa zwei Prozent in den Jahren 2027/2028.
Zwei Faktoren bremsen laut Bundesbank: das kräftige Lohnwachstum und weniger stark sinkende Energiepreise [8]. Für Verbraucher bedeutet das, dass zwar die Löhne steigen, sie sich aber nicht unbedingt mehr dafür kaufen können.
Exporte und Staatsausgaben als Wachstumstreiber
Die Bundesbank rechnet damit, dass die Exporte [9]im Verlauf des kommenden Jahres wieder auf Expansionskurs gehen. Die ifo-Exporterwartungen [10] bleiben jedoch mit minus 3,1 Punkten negativ.
Automobilbranche [11]und Maschinenbau erwarten rückläufige Exporte, während Hersteller elektronischer Erzeugnisse optimistischer sind.
Die staatliche Nachfrage wird der Prognose zufolge deutlich steigen. Zusätzliche Verteidigungs [12]- und Infrastrukturausgaben stützen das Wachstum ab 2026. Die expansive Fiskalpolitik beeinflusst das Produktionspotenzial aber nur begrenzt – es wächst um lediglich 0,4 Prozent je Jahr.
Die staatliche Defizitquote erreicht im Jahr 2028 knapp 4,8 Prozent und würde sich bis dahin fast verdoppeln. Seit der Wiedervereinigung Deutschlands gab es kein höheres Defizit im Haushalt. Die Schuldenquote steigt [13] in dem Zeitraum auf 68 Prozent.
Bundesbankpräsident Joachim Nagel empfiehlt deshalb eine reformierte Schuldenbremse, um die Staatsfinanzen langfristig zu sichern.
URL dieses Artikels: https://www.heise.de/-11121461
(Bild: Foto: Copyright Eric Brendle, herault-tourisme.com)
Für eine Kultur der Gelassenheit – auch im Winter. Warum eine Reise ins Hinterland Südfrankreichs den Horizont öffnet und die Laune hebt.
In den dunklen Monaten, immer wenn man merkt, dass man um den Mund herum grimmig wird, ist es am besten, man fährt nach Frankreich. Nach Südfrankreich. In meinem Fall ins Département de l'Hérault. Das funktioniert jedes Mal. Es geht aufwärts mit der Laune. Nachhaltig. Wie das? Und warum?
Wenn die Laune friert, hilft nur der Süden
Die Gründe sind einfach. Ein erster ist hier zu sehen.
Anhöhe St-Martin-du-Froid
(Bild: Foto: Copyright Eric Brendle, herault-tourisme.)
Der Anblick auf der Höhe, benannt nach der Kapelle St.-Martin-du-Froid, ist ein befreiender Schock. Noch klopft das Herz vom – leichten – Anstieg, dann nimmt der plötzlich offene Horizont, man sieht bis ans Meer einem den Atem, bis die Lungenflügel sich weiten und mit ihnen das gesamte Innenleben, dem es im herbstlichen Deutschland zu eng geworden war.
Dorthin zu finden, ist nicht ganz einfach. Aber das zwischenzeitliche Verlorengehen gehört zu der Art von Streifzügen, die eine Reise in den Süden Frankreichs zu einem Unterfangen machen, das einen noch wochenlang trägt. Weil es Möglichkeiten des Glücks vor Augen führt, die man verschwunden glaubte.
Das andere Südfrankreich
Es ist gegen die Intuition und gegen Sehnsüchte, die tief in uns stecken, wenn man der schönen Stadt im Süden, Montpellier den Rücken kehrt. Die Stadt voller lebendiger Cafés mit vielen Studenten und der grandiosen Mittelalterbauten ist nur eine halbe Stunde mit dem Bus von einer Küste entfernt, an der die Flamingos ihre rosa Farbstoffe aus den Etangs picken und die Sandstrände weit und herrlich leer ihr hellen einladenden Bänder ziehen.
Wer ins Hinterland fährt, fährt in die ungewohnte Richtung. Gibt es denn nichts Schöneres, als vor dem endlosen Blau des Meeres den stillen Frieden und die Wärme genießen?
Aber nicht doch, hieß es. Das kennst du schon.
Wir fuhren ins Hinterland. In die entgegengesetzte Richtung also. Du wirst sehen, es gibt neue Entdeckungen, neue Ziele für die Touristen, andere Erlebnisse als die, die man an den Stränden macht, sagten mir meine Begleiter. Andere Begegnungen. Auf die kommt es an.
Auf die Begegnungen kommt es an
Einen Vorgeschmack bekam ich am Vortag. Wir besuchten ein von außen unauffälliges Restaurant. Der Chef der Maison du Coquillage (wörtlich "Haus der Muschel"), an der Peripherie von Montpellier, ein "Ecailler", der seine Austern wie Juwelen anbot, erklärte uns – mit einem zwinkernden Blick auf den Gast aus Süddeutschland – dass er eine Crème Chantilly (Schlagsahne) servieren werde, die sämtliche Schlagsahne-Artisten aus der österreichisch-ungarischen k. und k.-Monarchie vor Neid zum Weinen gebracht hätte.
Der Mann behielt Recht. Er hatte der Sahne Gewürzspitzen zugesetzt, die einen verblüffenden Effekt hatten und Geschmackszonen ansprach, von denen ich nicht ahnte, dass es sie gibt. Aber ich war nicht zum Weinen gekommen. Ich wollte einen Teil Frankreichs sehen, den ich nicht kannte. Das rurale Südfrankreich. Nicht das Frankreich, in dem der Sprüche nach Gott am liebsten lebt und essen geht und die Reichen mit ihm am Tisch sitzen.
(Bild: Foto: T.P.)
Berge, die den Blick bis zum Meer tragen
Auf der Fahrt durchs Hinterland auf schnellen, kommod gewundenen Straßen geht es durch ein beinahe fantasy-artiges Panorama an Bergkämmen in einer Hügellandschaft mit einem sanft-freundlichen Grün bis ganz nach oben. Die Augen werden mild gestimmt, anders als in den felsigen Alpenlandschaften, derart, dass man keiner Sensation mehr bedarf.
Und doch gibt es sie. In der Bergkette der Monts de l'Espinouse, zum Beispiel, einem Gebirgsmassiv, das als Wasserscheide zwischen dem Atlantik und dem Mittelmeer fungiert. Dort ragt auch das Felsmassiv des Mont Caroux unübersehbar ins Blickfeld. Dessen helle Felsen sind weithin sichtbar, bis ans Meer, das etwa 30 bis 40 Kilometer entfernt ist.
Seeleute nutzten ihn früher als Navigationshilfe, heute erfreuen sich Wanderer an dem Blick bis hin zum Meer. Auch hier öffnet sich ein Horizont, der viele Fragen, die sich vor Bildschirmen auftürmen, in Luft auflöst.
Auf dem Gipfel von Caroux.
(Bild: Foto: Copyright Eric Brendle, herault-tourisme.)
Vorbei an der Tiefe, hinein in die Gegenwart
Wer da Anflüge erfährt für eine Ausweitung seiner Kenntnisse über Tiefenzeit und paläoalte Lebensspuren im Stein, der ist genau auf dem richtigen Terrain. Denn dort befindet sich ein Naturpark mit einer geologischen Tiefe bis ins Paläozoikum, der Géoparc Terres d'Hérault.
Wir aber fuhren vorbei an den paläozoitischen Zeitzeugen. Immer wieder zeigten meine Begleiter auf einen ungewöhnlichen Fahrradweg, ein paar hundert Meter von der Autostraße entfernt, der ähnlich wie eine Eisenbahntrasse durch Tunnels hindurch und auf Brücken verläuft und ein Landschaftserlebnis der eigenen Art bietet.
Wir machten uns im Auto auf leeren, schön gewundenen Straßen mit zeitlosen Blickfenstern auf den Weg, um etwas über die Gegenwart im Hinterland zu erfahren.
Auf dem Weg zu den Dörfern.
(Bild: Foto: Copyright Eric Brendle, herault-tourisme.)
Fraisse-sur-Agout, Bar Tabac, Begegnungen
Wir sollten eine Bürgermeisterin eines kleinen Ortes treffen, der vom "Aussterben" bedroht ist. Auf dem Weg dahin gab es naturellement eine Abschweifung. Ein zwischenzeitliches, etwas verwunschenes Verlorengehen in einem kleinen Ort namens Fraisse-sur-Agout.
(Bild: Foto: Eric Brendle, herault-tourisme.com)
Schließlich kann man nicht reisen, ohne zwischendrin einen Kaffee zu trinken und mit Einheimischen die politische Lage des Landes zu besprechen. In Fraisse-sur-Agout gibt es noch, was in den großen kulturkritischen Anmerkungen zum Zustand des Landes bedauert wird: ein Restaurant Bar Tabac, ziemlich klein, ziemlich unspektakulär, nichts für sensationsgierige Besucher – bis auf die Betreiberinnen.
Ein Dorf, ein Kaffee, ein ganzes Land
Zwei Frauen, die laut Erzählungen weit über achtzig sind, wahrscheinlich über neunzig Jahre alt, halten die Bar in Schwung. Tatsächlich ist das Bild nicht übertrieben. Wer dort jemals einen Kaffee bestellt und das Glück hat, mit den Frauen ins Gespräch zu kommen, erlebt eine Geistesgegenwart mit spitzen Bemerkungen, die einen wacher machen als der starke Espresso, den die Frauen mit sicherer Hand und einem angenehmen Klirren des Löffels servieren.
Die Gäste waren ausnahmslos Einheimische, die den Besuchern gegenüber freundliche Willkommensmiene zeigten, untereinander aber nach genüsslichen Lungenzügen aus den Gauloises Liberté toujours mit wenigen scharfen Worten die Steuerpolitik der wechselnden Regierungen abkanzelten. Nein, sie wollen auf keinen Fall weg von Fraisse-sur-Agout, gaben sie dem Besucher zu verstehen. Es sei ein Paradies, etwas versteckt vielleicht, aber magisch.
Fraisse-sur-Agout
(Bild: Foto: Eric Brendle, herault-tourisme.com)
Paradies mit schwindenden Einwohnern
Das sagt auch die Bürgermeisterin von Cambon, einem Weiler, französisch "hameau", nur, dass dort die Einwohner schwinden, sie bleiben nicht. In den 1960er-Jahren zählte man noch etwa 600 Einwohner, Mitte der Achtzigerjahre waren es nur mehr 150. Jetzt sind es 56 und im Winter zehn.
Das Dörfchen am Fuß des Weges zur Kapelle von St-Martin-du-Froid liegt in einem paradiesischen Umfeld. Das wissen auch die Ausgewanderten. Viele, die dort aufgewachsen sind, haben das ererbte Haus oder Anwesen als Zweitwohnsitz behalten – für die Ferien. Leben wollen sie dort nicht mehr oder können es nicht, mangels Arbeitsmöglichkeiten.
Die Hoffnung
Das sei nicht nur hier, in Cambon, sondern im ganzen ruralen Frankreich, habe man mit diesem Problem zu kämpfen, sagt die Bürgermeisterin (Name?) dem Besucher aus Deutschland. Sie listet die Fakten trocken auf, ohne Emotionen. Erst als es still wird und sie das Gespräch neu aufnimmt – "Wie kommen die Jüngeren dazu, dass sie sagen: Ich will mir von einem Haus nicht mein Leben blockieren lassen?" – lässt sie ihre tiefe Traurigkeit über die gegenwärtigen Zustände spüren.
Aber sie gibt nicht auf, sagt sie. Cambon sei den Kampf, der zu ihrer Lebensaufgabe geworden ist, wert. Rettung verspricht sie sich vom Tourismus. Und dafür hat sie besondere Angebote. Naturnah. Übernachten in einem Wagen auf einer Anhöhe, mit einem dieser Ausblicke, die den Horizont, die Lungenflügel und die Lebensgeister erweitern.
(Bild: Foto: Copyright Eric Brendle, herault-tourisme.com)
Der Tourismus hat sich verändert, sagt mein Begleiter. Er muss es wissen. Ich kenne ihn seit vierzig Jahren. Damals hab ich in Montpellier studiert und er war Radiojournalist. Mittlerweile arbeitet er im Tourismus.
Das "Dogma der Sonne", die Urlaube an Strand und Meer, die seit den 1950er Jahren als Paradigma der schönsten Zeit des Jahres propagiert wurden, seien nicht mehr alleingültiges Ferienglück. Jetzt entdecke man ein anderes Verhältnis zum Land und zur Natur, andere Begegnungen und andere Gefühle.
Dafür bieten sich andere Jahreszeiten zum Aufbruch an und andere Arten des Reisens.
Genaue Informationen zu Anfahrten, Touren, Übernachtungsmöglichkeiten und Radwegen finden sie bei herault-tourisme [1], auch auf Deutsch.
URL dieses Artikels: https://www.heise.de/-11121215
Links in diesem Artikel: [1] https://www.herault-tourisme.com/de/
Ein scheinbar einfacher Plan scheiterte an der Realität. Drei fundamentale Probleme machten die 185 Milliarden unantastbar.
Die Europäische Union wollte 185 Milliarden Euro, die der russischen Zentralbank gehören und zu Beginn der Invasion in der Ukraine eingefroren wurden, nutzen, um der Ukraine einen massiven Kredit zu gewähren.
Der Plan scheiterte jetzt – trotz enormen politischen Drucks und deutscher Garantien über 50 Milliarden Euro. Stattdessen einigte sich die EU auf eine Finanzierung über Kapitalmärkte, abgesichert durch nicht zugewiesene Mittel aus dem eigenen Haushalt.
Das Scheitern offenbart fundamentale Probleme, die weit über technische Details hinausgehen. Es geht um völkerrechtliche Risiken, die Stabilität des globalen Finanzsystems und die Frage, wie weit Europa bereit ist, für seine Handlungsfähigkeit zu gehen.
Die drei zentralen Hindernisse zeigen, warum selbst ein scheinbar einfacher Plan an der Realität scheitern kann.
1. Völkerrechtliche Unsicherheit und fehlende Präzedenzfälle
Die Beschlagnahme von Zentralbankvermögen eines Staates, mit dem man sich nicht im Kriegszustand befindet, bewegt sich in völkerrechtlichem Neuland. Belgiens Premierminister Bart De Wever formulierte [1] es vor dem Parlament deutlich: "Das Einfrieren von Vermögenswerten eines anderen Landes, seiner Staatsfonds, ist noch nie zuvor geschehen." Diese rechtliche Grauzone machte den ursprünglichen Plan politisch toxisch.
Die EU-Kommission versuchte, das Problem durch eine Notfallklausel zu umgehen. Mit Artikel 122 verlängerte Brüssel die Sanktionen auf unbestimmte Zeit und senkte die Hürde von Einstimmigkeit auf qualifizierte Mehrheit.
Die Konsequenz dieser Unsicherheit war ein Vertrauensproblem mit globaler Reichweite. Wenn die Europäische Union Zentralbankvermögen enteignet, sendet das ein Signal an alle Staaten, die Reserven in Euro oder Dollar halten.
Besonders Schwellenländer könnten ihre Währungsreserven diversifizieren oder aus westlichen Finanzzentren abziehen. Die belgische Regierung befürchtete konkret, dass Euroclear – wo vier Billionen Dollar an staatlichen Vermögenswerten aus aller Welt verwahrt werden – massiv an Vertrauen verlieren könnte.
Der Plan scheiterte nicht an mangelndem politischem Willen, sondern an der Erkenntnis, dass die rechtlichen Risiken das gesamte westliche Finanzsystem destabilisieren könnten. Zumindest manche EU-Staaten waren nicht bereit, für 185 Milliarden Euro das Fundament ihrer eigenen Wirtschaftsordnung zu gefährden.
2. Haftungsrisiken und die Gefahr einer Finanzkrise
Euroclear, die belgische Clearingstelle, verwahrt den Großteil der eingefrorenen russischen Gelder – rund 185 von 210 Milliarden Euro. Diese Konzentration machte Belgien zum Nadelöhr des gesamten Plans.
Sollte Russland erfolgreich vor Gericht ziehen oder Vergeltungsmaßnahmen ergreifen, würde Belgien auf den Kosten sitzen bleiben. Die Regierung in Brüssel kalkulierte [3], dass die Verbindlichkeiten ein Drittel der nationalen Wirtschaftsleistung betragen könnten.
Die technische Konstruktion des Plans verschärfte das Risiko zusätzlich. Die EU-Kommission wollte Euroclear einen Schuldschein ausstellen, der die Bilanz ausgleichen sollte, falls die russischen Vermögenswerte zurückgegeben werden müssten.
Doch dieser Mechanismus funktioniert nur, wenn Euroclear sofort über Bargeld verfügen kann. Ein EU-Beamter warnte deshalb [4]: "Das ist der Mechanismus, mit dem Euroclear im Grunde völlig entleert werden könnte".
Russlands Drohkulisse war konkret und glaubwürdig. Moskau hält in Russland Euroclear-Vermögenswerte im Wert von 16 Milliarden Euro und könnte diese beschlagnahmen. Zusätzlich könnten russische Gerichte Ansprüche auf Euroclear-Gelder in Hongkong und Dubai geltend machen. Westliche Banken, die ihr in Russland angelegtes Geld verloren hätten, könnten ebenfalls gegen Euroclear klagen.
Die Folge eines Euroclear-Kollapses wäre eine globale Finanzkrise. Die Clearingstelle verwahrt Wertpapiere und Bargeld im Wert von rund 37 Billionen Euro. Würde ihr die belgische Zentralbank die Lizenz entziehen müssen, weil das Kapital ausgeht, würden Finanzmärkte weltweit ins Chaos stürzen.
Belgiens Blockade war keine politische Sturheit, sondern eine rationale Risikoabwägung. Die Regierung in Brüssel weigerte sich, die Stabilität des globalen Finanzsystems für einen EU-Plan aufs Spiel zu setzen, bei dem die Haftungsfrage ungeklärt blieb.
3. Politische Spaltung und unterschiedliche nationale Interessen
Die Debatte über die russischen Vermögen legte tiefe Gräben innerhalb der EU offen. Deutschland, Polen und Dänemark drängten auf schnelle Lösungen [7] und favorisierten die Nutzung der eingefrorenen Gelder. Belgien, Italien und Malta äußerten rechtliche Bedenken. Ungarn und die Slowakei lehnten jede Form der Ukraine-Finanzierung grundsätzlich ab.
Die gefundene Kompromisslösung spiegelt diese Spaltung wider. Der Kredit von 90 Milliarden Euro wurde so konstruiert, dass Ungarn, Tschechien und die Slowakei keine finanziellen Verpflichtungen treffen müssen. Diese Entlastung war notwendig, um überhaupt eine Mehrheit zu erreichen.
Gleichzeitig behielt sich die EU-Kommission vor, parallel weiter an der Option eines Reparationskredits auf Basis der eingefrorenen Vermögen zu arbeiten – ein politisches Feigenblatt für jene, die den ursprünglichen Plan bevorzugt hätten.
Frankreichs Position illustriert die Widersprüchlichkeit der nationalen Interessen. Paris unterstützte zwar die Nutzung der in Belgien liegenden Gelder, widersetzte sich jedoch der Verwendung französischer Bestände. Diese Haltung zeigt, dass selbst Befürworter des Plans nicht bereit waren, eigene Risiken zu tragen.
Die Alternative – eine gemeinsame EU-Kreditaufnahme – war politisch kaum durchsetzbar. Laut einem Papier der EU-Kommission würde ein Kredit über 140 Milliarden Euro jährliche Zinszahlungen von 5,6 Milliarden Euro bedeuten. Frankreich müsste fast eine Milliarde Euro zahlen, Italien 675 Millionen Euro, Belgien 200 Millionen Euro. Für Länder mit angespannten Haushalten war das inakzeptabel [8].
Die EU konnte sich nicht auf einen gemeinsamen Weg einigen, weil die nationalen Interessen zu weit auseinanderlagen. Der gefundene Kompromiss – Finanzierung über Kapitalmärkte, abgesichert durch EU-Haushaltsreserven – war die einzige Lösung, die eine Mehrheit fand. Doch er zeigt auch, dass Europa in Krisenzeiten an seinen inneren Widersprüchen scheitern kann.
Ausblick: Ein Plan, der nicht stirbt
Die Entscheidung, 90 Milliarden Euro über Kapitalmärkte aufzunehmen, löst die unmittelbare Finanzkrise der Ukraine bis 2027. Doch die Frage der russischen Vermögen bleibt politisch virulent.
Die EU-Kommission hat den Auftrag, weiter an einem Reparationskredit zu arbeiten – ein Signal, dass der ursprüngliche Plan nicht endgültig begraben ist.
Ob diese Option jemals realisiert wird, hängt von drei Faktoren ab: einer Klärung der völkerrechtlichen Fragen, einer belastbaren Absicherung für Euroclear und einer politischen Einigung, die alle Mitgliedstaaten einbindet.
Alle drei Voraussetzungen erscheinen derzeit unrealistisch.
URL dieses Artikels: https://www.heise.de/-11121059
Links in diesem Artikel: [1] https://www.telepolis.de/article/Ukraine-Hilfen-Warum-185-Milliarden-Euro-an-russischen-Geldern-die-EU-spalten-11119975.html [2] https://www.telepolis.de/article/Berlin-gibt-Ukraine-Milliarden-Garantie-fuer-eingefrorene-Russland-Gelder-11114604.html [3] https://www.telepolis.de/article/Ukraine-Finanzierung-USA-fordern-von-der-EU-mehr-Haerte-gegen-Russland-11084042.html [4] https://www.telepolis.de/article/Warum-die-Enteignung-russischer-Vermoegen-zur-globalen-Finanzkrise-werden-koennte-9654949.html [5] https://www.telepolis.de/article/Ukraine-Hilfen-Warum-185-Milliarden-Euro-an-russischen-Geldern-die-EU-spalten-11119975.html [6] https://www.telepolis.de/article/Berlin-gibt-Ukraine-Milliarden-Garantie-fuer-eingefrorene-Russland-Gelder-11114604.html [7] https://www.telepolis.de/article/EU-leiht-Ukraine-90-Milliarden-Plan-mit-russischen-Vermoegen-gescheitert-11120740.html [8] https://www.telepolis.de/article/Ukraine-Finanzierung-USA-fordern-von-der-EU-mehr-Haerte-gegen-Russland-11084042.html
Jetzt patchen! Angreifer schieben Schadcode auf WatchGuard Firebox
Von Heise — 19. Dezember 2025 um 09:39
(Bild: solarseven/Shutterstock.com)
Derzeit haben es Angreifer auf WatchGuard-Firewalls der Firebox-Serie abgesehen. Sicherheitspatches stehen zum Download bereit.
Aufgrund von zurzeit laufenden Attacken sollten Admins ihre Firebox-Firewalls von WatchGuard auf den aktuellen Stand bringen. Angreifer führen Schadcode aus.
Hintergründe
In einer Warnmeldung führen die Entwickler aus [1], dass von der „kritischen“ Sicherheitslücke (CVE-2025-14733) in Fireware OS folgende Konfigurationen betroffen sind: Mobile User VPN mit IKEv2 und Branch Office VPN mit IKEv2, wenn es mit einem dynamischen Gateway-Peer konfiguriert ist.
Ist das gegeben, sind Attacken aus der Ferne und ohne Authentifizierung möglich. Setzen Angreifer erfolgreich an der Lücke an, kommt es zu Speicherfehlern (Out-of-bounds) und es gelangt Schadcode auf Systeme.
In welchem Umfang und wie genau solche Attacken ablaufen, ist derzeit nicht bekannt. Unklar ist auch, was Angreifer konkret anstellen. Aufgrund der kritischen Einstufung ist aber davon auszugehen, dass Angreifer Geräte nach der Ausführung von Schadcode vollständig kompromittieren.
Damit Admins bereits attackierte Instanzen erkennen können, listet WatchGuard diverse Parameter (Indicator of Compromise, IoC) wie IP-Adressen in der Warnmeldung auf. Es gibt aber auch bestimmte Hinweise in Logdateien. Außerdem kommt es nach erfolgreichen Angriffen zu Fehlern bei VPN-Verbindungen.
Gegenmaßnahmen
Um Firewalls und Netzwerke zu schützen, müssen Admins zügig Fireware OS 12.3.1_Update4 (B728352), 12.5.15, 12.11.6 oder 2025.1.4 installieren. Für den Versionsstrang 11.x ist der Support ausgelaufen und es gibt keine Sicherheitspatches mehr. An dieser Stelle ist ein Upgrade nötig.
Windows-Sicherheitsupdates führen zu Störungen des Message Queuing (MSMQ) von Windows 10 und Server bis 2019. Notfallupdates lösen das.
Anfang der Woche wurde bekannt, dass die Sicherheitsupdates für Windows im Dezember unerwünschte Nebenwirkungen haben: Das Message Queuing (MSMQ), das der Anwendungskommunikation dient, wird davon in Windows 10 und Windows Servern bis 2019 gestört, was zu Software-Ausfällen führen kann. Nun steuert Microsoft mit Notfallupdates außer der Reihe gegen.
Das Update erhalten IT-Verantwortliche ausschließlich über den Windows-Update-Katalog durch Suche [6] nach der KB-Nummer. In den KB-Einträgen verlinkt Microsoft auch entsprechend in den Windows-Update-Katalog, allerdings stehen zum Meldungszeitpunkt die Updates für Server entgegen der Ankündigung noch nicht zum Herunterladen bereit.
Inzwischen hat Microsoft die Liste der betroffenen Betriebssysteme deutlich erweitert. Hieß es zunächst, Windows 10 22H2, Windows Server 2016 und 2019 wiesen die MSMQ-Probleme nach der Aktualisierung auf, nennt Microsoft nun Windows 10 22H2, 21H2 sowie 1809 und 1607 und die Server-Versionen 2019, 2016, 2012 R2 und 2012 als anfällig dafür auf.
Die Probleme mit dem Dezember-Update [7] wurden am Montag dieser Woche bekannt. Die Störungen stammen von den darin vorgenommenen Änderungen am MSMQ-Sicherheitsmodell und NTFS-Zugriffsrechten für den Ordner „C:\Windows\System32\MSMQ\storage“. MSMQ-Nutzerinnen und -Nutzer müssen jetzt Schreibzugriff auf diesen Ordner haben, was üblicherweise auf die Administratoren beschränkt ist. In der Folge können Versuche, Nachrichten mittels MSMQ-APIs zu schicken, mit Ressourcenfehlern fehlschlagen.
URL dieses Artikels: https://www.heise.de/-11120586
Tastatur-Verzögerung entlarvt nordkoreanischen IT-Maulwurf bei Amazon.com
Von Heise — 18. Dezember 2025 um 23:00
Nordkoreas Fahne
(Bild: Jiri Flogel/Shutterstock.com)
Die Tastenanschläge eines externen Mitarbeiters waren verdächtig verzögert. Amazon.com erkannte ihn als Nordkoreaner.
IT-Fachkräfte aus Nordkorea schleichen sich unter falschen Identitäten bei westlichen Unternehmen ein. Durch Heimarbeit verschaffen sie der nordkoreanischen Regierung Einnahmen, bei Gelegenheit sammeln sie auch regimedienliche Daten. Amazon.com hat einen solchen Maulwurf ausgehoben. Verraten hat ihn die um einen Sekundenbruchteil langsameren Tastaturbedienung.
Der Datenkonzern hatte den Administrator-Job an einen Personaldienstleister ausgelagert. Dieser meinte, jemanden in Arizona eingestellt zu haben, und Amazon schickte ihm einen Laptop. Darauf installierte Sicherheitssoftware schlug Alarm: Die Laufzeit der zu Amazons Servern übertragenen Tastaturanschläge lag nicht im Bereich einiger Dutzend Millisekunden, sondern bei 110 Millisekunden.
Teil einer nordkoreanischen Laptopfarm in Arizona
(Bild: gemeinfrei)
Das hat Amazons Chief Security Officer Stephen Schmidt dem Nachrichtendienst Bloomberg erzählt [1]. Die längere Verzögerung deutet darauf hin, dass der Benutzer nicht, wie behauptet, in Arizona sitzt, sondern weit weg. Amazon beobachtete die Arbeit des Verdächtigen für einige Tage, ließ sich dessen Stellenbewerbung kommen und ihn schließlich hinausschmeißen.
Denn die Adresse in Arizona entpuppte sich als Haushalt einer Frau, die den Laptop aufgestellt und mit dem Server des nordkoreanischen Maulwurfs verbunden hatte. Außerdem nahm sie die Gehaltszahlungen entgegen und leitete sie weiter. Das war kein Einzelfall: In einem US-Strafverfahren ist sie wegen Einschleusens nordkoreanischer IT-Fachkräften in mehr als 300 US-Unternehmen im Juli zu achteinhalb Jahren Haft verurteilt [2] worden (USA v Christina Chapman, Az. 1:24-cr-00220) US-Bundesbezirksgericht für den District of Coumbia,
Immer mehr nordkoreanische Bewerbungen
„Wenn wir nicht nach nordkoreanischen Arbeitern gesucht hätten, hätten wir ihn nicht gefunden”, sagt Schmidt. Zugriff auf relevante Daten habe der Täter nicht gehabt. Seine Bewerbung habe Muster wiederholt, die schon bei anderen nordkoreanischen IT-Maulwürfen beobachtet wurden. Demnach haben sie Schwierigkeiten mit bestimmten Idiomen und Artikeln der englischen Sprache. Zudem gäben sie oft die gleichen ausländischen Bildungseinrichtungen und früheren Arbeitgeber an, die zu verifizieren für US-Unternehmen nicht simpel ist.
Amazon gibt an, schon eine vierstellige Zahl an Bewerbungen erhalten zu haben, die es als nordkoreanischen Betrugsversuch einstufen konnte. Dieses Jahr sei die Zahl sprunghaft gestiegen. In der direkt beschäftigten Belegschaft will Amazon noch keine heimlichen Nordkoreaner aufgedeckt haben. Im November haben sich in den USA fünf weitere Unterstützer Nordkoreas schuldig bekannt [3].
URL dieses Artikels: https://www.heise.de/-11120504
Links in diesem Artikel: [1] https://www.bloomberg.com/news/newsletters/2025-12-17/amazon-caught-north-korean-it-worker-by-tracing-keystroke-data [2] https://www.heise.de/news/Falsche-IT-Fachkraefte-aus-Nordkorea-eingeschleust-Haft-fuer-US-Amerikanerin-10500790.html [3] https://www.heise.de/news/Nordkoreas-Remote-Angestellte-Fuenf-Helfer-in-den-USA-bekennen-sich-schuldig-11082874.html [4] https://www.heise.de/ix [5] mailto:ds@heise.de
Innovativ und fast vollständig Open-Source: Nvidia Nemotron 3 Nano
Von Heise — 19. Dezember 2025 um 09:30
(Bild: gguy/Shutterstock.com)
Zuletzt kamen die erfolgreichen, transparenteren KI-Sprachmodelle von chinesischen Entwicklern. Mit Nemotron 3 Nano legt Nvidia jetzt nach.
Kurz vor Weihnachten gab es für die LLM-Community eine unerwartete Überraschung: Nvidia veröffentlichte ein neues Modell mit dem Namen Nvidia-Nemotron-3-Nano-30B-A3B. Schon etwas früher war die Reddit-Community informiert, weil ein aufmerksamer Leser entdeckt hatte, dass ein weniger aufmerksamer Mitarbeiter von Nvidia versehentlich ein übergeordnetes Verzeichnis zu Hugging Face gepusht hatte. In dem am 15. Dezember 2025 veröffentlichten Nvidia-Modell stecken jede Menge neue Ideen, sodass sich ein genauerer Blick lohnt – auch weil es sich nur um das erste Modell aus einer ganzen Familie handelt.
Überblick über die Architektur
Bisher waren die Nemotron-Modelle häufig Finetunes anderer Modelle wie Llama 3.1 [1]. Das hätte man aufgrund der ähnlichen Parameteranzahl eines Qwen3-Modells [2] auch bei Nemotron 3 vermuten können. Bei Nemotron 3 hat Nvidia die Modelle von Grund auf neu trainiert und sich dafür eine neue Architektur ausgedacht. Die bisherigen Mixture-of-Experts-Layer (MoE) verwendet Nvidia dabei abwechselnd mit Mamba-Layern, die im strengen Sinne keine Transformer-Architektur nutzen. Der Vorteil ist eine deutlich höhere Ausführungsgeschwindigkeit und ein geringerer Speicherverbrauch, weil der Key-Value-Cache, der sich den Kontext merkt, in den Mamba-Layern nicht mit der Kontextlänge wächst. Vermutlich genau aus diesem Grund konnte Nvidia die Kontextlänge auf eine Million Token erhöhen. Das Modell eignet sich somit für sehr lange Dokumente.
Obwohl das Modell „Nano“ im Namen trägt, ist es nicht wirklich klein, sondern hat 31,6 Milliarden Parameter, von denen es bei jeder Token-Vorhersage 3,6 Milliarden verwendet. Das macht das Modell schnell, dazu tragen außerdem die leichter zu berechnenden Mamba-Layer bei. Nvidia spricht von einem Faktor 3,3 gegenüber vergleichbaren Modellen. Solche Zahlen lassen sich nicht einfach verifizieren, was ebenfalls für die von Nvidia genannte beste Genauigkeit für Reasoning, Coding, Benutzung von Tools und mehrstufigen Agenten-Aufgaben gilt. Hier muss sich das Modell erst noch in der Praxis beweisen.
Im Vergleich mit den Konkurrenten Qwen3-30B-A3B-Thinking-2507 und GPT-OSS-20B-A4B schneidet Nemotron 3 Nano in Nvidias Benchmarks sehr gut ab.
Direkt überprüfbar sind dagegen die Möglichkeiten, das Reasoning ein- und auszuschalten oder darüber die Anzahl der generierten Token zu begrenzen. Das ist besonders für agentische Aufgaben wichtig, weil sonst dort unkontrollierbar hohe Kosten entstehen können.
Nemotron Nano besteht aus 52 Layern mit einer Modelldimension von 2.688 und setzt auf 32 Attention-Heads. Die Mamba-Layern haben 128 Zustandsdimensionen in acht Gruppen, mit jeweils 64 Mamba-Heads in 64 Head-Dimensionen. Insgesamt gibt es 128 Experten, von denen zwei als Shared Experts arbeiten; weiterhin aktiviert das Modell sechs zusätzliche Experten. Da die Experten nur 1.856 Dimensionen haben, erklärt sich so die Anzahl der aktiven Parameter von 3,6 Milliarden. Abgesehen von den Mamba-Layern nutzen andere Modelle ähnliche MoE-Architekturen.
Trainingsdaten fast vollständig veröffentlicht
Was das Nemotron-Modell allerdings wirklich gegenüber fast allen anderen Modellen auszeichnet, sind die Trainingsdaten. Nahezu alle hat Nvidia veröffentlicht, genau wie auch die im Training verwendeten Algorithmen. Das haben bisher neben den Olmo- [4] und Apertus-Modellen [5] nur wenige Anbieter geleistet. Die Daten finden sich als Pre- [6] und Post-Trainings-Datensatz [7] auf Hugging Face.
Manche der Daten scheinen aus der Zukunft zu stammen und tragen ein Änderungsdatum von 20. Dezember 2025, ein offensichtlicher Fehler. Unabhängig davon reichen die Daten bis zum Juni 2025. Fragen nach dem Wissensstand beantwortet das Modell allerdings mit Juni 2024 – auch eine Inkonsistenz. Insgesamt stehen 10 Billionen Tokens zum Download in den Datensets zur Verfügung. Das lässt sich kaum mit bezahlbarer Hardware trainieren (oder feintunen), dennoch ist es sehr spannend, einen Blick in die Datensets zu werfen oder zumindest Teile davon zu verwenden. In jedem Fall werden die Modelle dadurch deutlich transparenter. Das Nano-Modell steht unter der Nvidia-Open-Model-Lizenz [8], damit ist auch die kommerzielle Nutzung und Veränderung gestattet.
Laut dem Artificial-Analysis-Index, der Offenheit und Intelligenz von Modellen erfassen will, kann Nemotron 3 Nano in beiden Kategorien gute Werte erzielen.
Unter dem Pre- oder Base-Training versteht man den Teil, in dem das Modell mit sehr großen Datenmengen trainiert wird, um den jeweils nächsten Token vorherzusagen. Üblicherweise verbraucht das Pre-Training bei weitem am meisten Rechenkapazität, auch wenn sich das bei einigen Anbietern (wie Qwen) gerade ändert.
Für das Pre-Traning nutzt Nvidia den Warmup-Stable-Decay als Scheduler und trainiert das Modell mit 25 Billionen Token in 15 unterschiedlichen Kategorien. Dieses Pre-Training haben die Entwickler noch in zwei Phasen unterteilt, die erste Phase nutzt 23,5 Billionen Token aus relativ einfachen Texten, in einer zweiten Phase folgen 1,5 Billionen Token mit deutlich höherer Qualität.
Die größte der 15 Komponenten sind Daten aus dem Web Crawling (Common Crawl), die in fünf Teilbereiche mit verschiedenen Qualitätsstufen zerfallen (crawl-medium, crawl-medium-high, syn-crawl-medium-high, crawl-high, syn-crawl-high). Neben den Crawling-Daten enthält der Mix auch mathematische Daten, weitere aus Wikipedia, speziellen Programmcode und verschiedene andere.
Im Pre-Training verwendet Nvidia auch synthetische Daten, die normalerweise für das Supervised Finetuning Verwendung finden. Unter Crawl++ versteht Nvidia Daten, die aus OpenWebText, BigScience und Reddit kommen. Das Pre-Training erfolgt in 19 Sprachen: Arabisch, Chinesisch (vermutlich Mandarin), Tschechisch, Dänisch, Flämisch, Finnisch, Französisch, Deutsch, Hebräisch, Hindi, Italienisch, Japanisch, Koreanisch, Portugiesisch, Polnisch, Russisch, Spanisch, Schwedisch und Thai. Daten mit höherer Qualität erhalten von Nvidia ein höheres Gewicht im Training; der technische Bericht schweigt sich aber darüber aus, wie die Qualität bestimmt wird.
In den unterschiedlichen Phasen arbeitet Nvidia mit verschieden langen Kontexten. RoPE (Rotational Position Embeddings zur Vergrößerung des Kontexts) benutzt Nvidia dabei wegen der Mamba-Layer zwar nicht, aber mit den höherwertigen Inhalten wird der Kontext auf bis zu 512K Token erhöht. Nemotron-3-Nano trainiert Nvidia in bfloat16, für die größeren Varianten, die noch nicht erschienen sind, kommt das viel kompaktere NVFP4 zum Einsatz. Nvidia behauptet, damit keine großen Quantisierungsfehler zu machen. Nvidia hat auch die nach dem Pre-Training entstandenen Basis-Modelle veröffentlicht, die noch nicht feingetunt sind.
Post-Training
Das Post-Training unterteilt Nvidia in drei Phasen, ein Supervised Finetuning (SFT), ein Reinforcement Learning with Verifiable Rewards (RLVR) für unterschiedliche Umgebungen und schließlich ein Reinforcement Learning with Human Feedback (RLHF).
In der SFT-Phase nutzt Nvidia eine Kontextlänge von 256k Token und Trainingsdaten aus Chats, Dialogen mit Agenten und Reasoning. Letzteres soll dabei helfen, dem Modell ein Limit für das Reasoning anzutrainieren oder es ganz auszuschalten, damit es nicht zu viele Token und damit Kosten erzeugt. Das Modell lernt an dieser Stelle, Reasoning mit Tools durchzuführen. Die Daten hat Nvidia in unterschiedliche Bereiche getrennt: mathematische Probleme mit formalen Beweisen, Programmcode, wissenschaftliche und Softwarethemen sowie verschiedene Sprachen. Auch die Sicherheit berücksichtigt Nvidia hier, damit das Modell seine Grenzen nicht überschreitet. Sehr spezifisch für Nvidia sind die CUDA-Trainingsdaten, Nemotron beherrscht also auch diese Programmiersprache.
Beim RLVR trainiert Nvidia mit Daten in ganz ähnlichen Bereichen parallel. Der Fokus liegt hier auf verifizierbaren Ergebnissen, Programme müssen etwa Unit-Tests durchlaufen. Nvidia erklärt leider nicht, ob es ähnlich wie DeepSeek V3.2 [17] auch die einzelnen Prozessschritte verifiziert, möglicherweise ist das noch eine Optimierung, die zu einem späteren Zeitpunkt eingesetzt werden kann. Der Kontext ist bei RLVR mit 256k Token etwas kleiner als beim SFT.
Neue Ideen bringt Nvidia beim RLHF ein und nutzt ein generatives Belohnungsmodell (GenRM), interessanterweise ein großes Qwen3-Modell (Qwen3-235B-A22B-Thinking-2507). Das Qwen3-Modell wird zunächst feingetunt: Im Trainingsprozess bewertet es mit seinen Reasoning-Fähigkeiten zwei Antworten danach, wie hilfreich sie sind. Die Korrektheit überprüft Nvidia anhand eines synthetischen Datensatzes und dem HelpSteer3-Datenset. Sobald GenRM trainiert ist, kommt es im eigentlichen Reinforcement Learning zum Einsatz und bewertet 16 mögliche Antworten von Nemotron. Um nicht alle 120 möglichen Kombinationen zu bewerten, vergleicht GenRM jeweils nur eine Antwort mit der jeweils nächsten (und die letzte mit der ersten), was zu 16 Bewertungen führt. Das Human Feedback hat Nvidia hier also durch das GenRM-Feedback ersetzt und kann damit sehr viel besser skalieren – an der notwendigen Hardware wird es kaum mangeln. Es ist fast schon erstaunlich, dass Nvidia nicht alle 120 Vergleiche durchführt.
Am Ende quantisiert Nvidia das bfloat16 Modell noch auf FP8 und zeigt, dass damit fast keine Qualität verloren geht. Vermutlich hat man das auch mit NVFP4 probiert und dabei schlechtere Ergebnisse erzielt und daher die größeren Modelle gleich in diesem Datenformat trainiert.
Ausprobieren
Sowohl vllm als auch SGLang unterstützen das neue Nemotron-Modell bereits. Aber auch mit llama.cpp lässt sich das Modell verwenden, da die Architektur mit den Mamba-Layern so ähnlich schon in Qwen3-Next [18] vorkam. Damit lässt sich das Modell auch mit moderater Hardware ausführen und funktioniert ohne GPU auf der CPU in akzeptabler Geschwindigkeit.
Bei der Frage nach dem Heise-Verlag antwortet das Modell etwas zu kreativ, aber immerhin in korrekter deutscher Sprache:
Die Anzahl der „e“ in „Erdbeere“ kann das Modell hervorragend zählen und antwortet kurz und knapp – sehr viel knapper als fast alle anderen bisher getesteten Modelle:
Die Geschwindigkeit von Nemotron-Nano ist hoch, auf einem MacStudio (M2 Ultra) erreicht es etwa 80 Token/s beim Generieren von Antworten.
Große Nemotrons
Die noch nicht veröffentlichten größeren Nemotron-Modelle sollen noch mehr Tricks auf Lager haben. Nvidia kündigt etwa LatentMoE an und erklärt, dass das damit verbundene Design der Expert-Layer auf die Hardware optimiert wurde. Das wird wie das verwendete NVFP4-Format dann wohl nur gut mit Nvidia-GPUs funktionieren. Denn diese Fähigkeiten unterstützen nur die neueste Hardware-Generation von Nvidia.
Multi-Token Prediction beherrschen schon einige Modelle, auch das sollen die Super- und Ultra-Modelle dann können. Nvidia verspricht sich davon eine verbesserte Generierung langer Texte und eine insgesamt höhere Modellqualität. Noch ist nicht bekannt, wie groß die weiteren Modelle sein werden und wann mit ihnen zu rechnen ist – Nvidia spricht von „in den nächsten Monaten“.
Fazit
Nvidia hat geliefert. Mit der Nemotron-Familie ist bereits in der kleinsten Nano-Version (endlich!) ein Modell verfügbar, das den chinesischen Anbietern von Open-Weight-Modellen Konkurrenz macht. Glaubt man Nvidias Auswertungen, ist das eigene Modell aktuell führend, wenn man die Kosten pro Token im Vergleich zu der Genauigkeit betrachtet (Grenzlinie von Genauigkeit-Inferenz-Durchsatz). Gleichzeitig ist das Modell mit offenen Gewichten verfügbar und kann kommerziell genutzt werden. Zusätzlich hat Nvidia einen Großteil der Trainingsdaten veröffentlicht und schafft damit fast ein Open-Source-Modell. Es wird spannend zu sehen, wie gut die angekündigten größeren Modelle sein werden.
Ganz aktuell hat Nvidia auch das Framework veröffentlicht, mit dem sie die Performance der Modelle gemessen haben; auch das steht frei zur Verfügung und heißt Open Evaluation Standard [20]. Dies ist sicher ein weiterer Beitrag zur Transparenz der Modelle und motiviert vielleicht auch andere Anbieter, damit ihre Modelle zu benchmarken.
URL dieses Artikels: https://www.heise.de/-11120636
.NET 10.0 ist eine Version mit Long-Term-Support (LTS) für 36 Monate. Für einige Bibliotheken ist der Support aber deutlich kürzer.
Während die vorherige, im November 2024 erschienene Version 9.0 Standard-Term-Support (STS) für 24 Monate (ursprünglich sogar nur 18 Monate, wurde verlängert am 16.09.2025) besitzt und daher noch bis zum November 2026 mit Updates versorgt wird, bietet Microsoft Aktualisierungen und technische Hilfe für .NET 10.0 als Long-Term-Support (LTS) für die Dauer von 36 Monaten an, also bis November 2028.
Der Support für das Ende 2023 erschienene .NET 8.0 mit Long-Term-Support (LTS) läuft noch bis 10. November 2026. Alle anderen .NET-Versionen vor Version 9 sind bereits aus dem Support gelaufen.
Erscheinungstermine und Support-Zyklen für das moderne .NET (Abb. 1)
(Bild: Holger Schwichtenberg)
Für einige von Microsoft veröffentlichte .NET-NuGet-Pakete, die nicht Teil des .NET-SDKs sind, gilt eine andere Support-Richtlinie.
Das betrifft folgende Paketfamilien:
Extensions.*, z.B. Microsoft.Extensions.Http.Resilience und Microsoft.Extensions.Telemetry
AspNetCore.*, z.B. Microsoft.AspNetCore.Testing und Microsoft.AspNetCore.Diagnostics.Middleware
Für diese Pakete gilt:
Es kann jeden Monat ein neues Minor-Release geben (9.1, 9.2, 9.3 usw.).
Es gibt immer nur Support für die jeweils aktuelle Version.
Die Regeln des Semantic Versioning werden nicht streng befolgt von Microsoft.
URL dieses Artikels: https://www.heise.de/-11120121
Links in diesem Artikel: [1] https://dotnet.microsoft.com/en-us/platform/support/policy/extensions [2] https://dotnet.microsoft.com/en-us/platform/support/policy/extensions [3] mailto:rme@ix.de
Das Weltraumlabor Haven-1 soll im zweiten Quartal 2026 mit einer Falcon-9-Rakete von SpaceX in den niedrigen Erdorbit gebracht werden. Das 14.000 Kilogramm schwere Raumlabor soll zunächst für drei Jahre in der Erdumlaufbahn bleiben. Während dieser Zeit können astronautische Missionen von einer Dauer von bis zu 160 Tagen an Bord verweilen.
Forschung für die Menschheit
Haven-1 ist nach Angaben von Vast bestens ausgestattet, um Experimente in vielen Bereichen zu beherbergen. Dazu zählen die On-Orbit-Entwicklung der Pharmazeutik, die Stammzellforschung, das Pflanzenwachstum sowie Humanforschung und Technologiedemonstrationen.
Das Unternehmen will Forschung unterstützen, welche die menschliche Erforschung des Mondes und des Mars fördert. Überdies unterstützt Vast Experimente, die den Menschen auf der Erde zugutekommen könnten, etwa Studien zu Knochen-, Muskel- und Herzgesundheit, medizinischer Technologie, Stammzellforschung und regenerativer Medizin.
Zusammenarbeit in der Schwerelosigkeit
Die ersten Partnerschaften für solche Experimente wurden mit dem US-Luft- und Raumfahrthersteller Redwire Corporation sowie dem deutsch-luxemburgischen Start-up Yuri Gravity für weltraumgestützte Biotechnologien geschlossen.
Zudem gibt es eine Partnerschaft mit der japanischen Gesellschaft für bemannte Raumfahrt, der JAMSS (Japan Manned Space Systems Corporation) , die an der Ausbildung von Astronauten und Fluglotsen sowie der Durchführung von Weltraumexperimenten im Programm der Internationalen Raumstation (ISS) beteiligt ist.
Auch das US-amerikanisch-französische Unternehmen Interstellar Lab , das sich auf die Pflanzenkultivierung in der Schwerelosigkeit spezialisiert hat, sowie das in den USA und Luxemburg ansässige Unternehmen Exobiosphere , das verborgene Krankheitsmechanismen und biologische Prozesse mit Hilfe der Schwerelosigkeit erforschen will, kooperieren mit Vast.
Das Erbe der ISS fortsetzen
"Wir müssen auf dem Erbe des ISS National Labs aufbauen und Wissenschaftlern sowie der Industrie helfen, weltverändernde Forschungsdurchbrüche fortzusetzen, die nur in der neuartigen Umgebung der Mikrogravitation möglich sind" , teilt Meghan Everett, Vast Principal Scientist, mit.
Entsprechend rief Vast die Wissenschaftsgemeinschaft dazu auf, sich an potenziellen privaten astronautischen Missionen zur ISS zu beteiligen – allerdings trifft hier die US-Raumfahrtbehörde Nasa die Entscheidungen.
Was bei KI 2025 passiert ist: Das Ende der Wundermaschinen
Von Helmut Linde — 19. Dezember 2025 um 08:13
Wie KI -Sprachmodelle nachdenken lernten, der Wettbewerb wieder spannend wurde, Aktionäre vor dem Platzen der KI-Blase erzitterten – und wie es 2026 weitergeht.
Platzt 2026 die KI-Blase?Bild:
KI-generiert mit Dall-E 3
Das Jahr 2025 begann auf dem Gebiet der künstlichen Intelligenz mit einem Paukenschlag: Das chinesische Start-up Deepseek veröffentlichte im Januar sein Sprachmodell Deepseek-R1 – ein offenes, leistungsstarkes System, das mit den besten westlichen Modellen konkurrieren konnte, aber zu einem Bruchteil der Trainingskosten entstand.
Binnen Tagen ging das Modell viral und die Börsenkurse westlicher KI-Unternehmen brachen kurzzeitig ein: Softwareexperten waren erstaunt über die gewaltige Effizienzsteigerung, die Deepseek beim Training des Modells erreicht hatte. Gleichzeitig markierte die Veröffentlichung eine geopolitische Zäsur. Zum ersten Mal stammte ein global führendes KI-Modell aus China – und es war öffentlich verfügbar.
Deepseek-R1 war nicht nur technisch bemerkenswert, sondern auch politisch aufgeladen. Nutzer stellten schnell fest , dass das Modell bei sensiblen Themen wie Taiwan oder Menschenrechte zensierte Antworten lieferte – ein Fingerzeig auf die wachsende Kluft zwischen offenen und staatlich kontrollierten KI-Ökosystemen.
Innere Monologe machen KI schlauer
Um ihren Innovationsvorsprung gegenüber der neuen chinesischen Konkurrenz aufrechtzuerhalten, arbeiteten die westlichen Technologiekonzerne an einer neuen Evolutionsstufe der KI: den Agenten . Als wichtigen Schritt dahin eröffnete OpenAI im Frühjahr mit seinen Modellen o3 und o4-mini eine neue Phase des Reasoning – der Fähigkeit, Probleme von unterschiedlichen Perspektiven zu überdenken und der Lösung schrittweise näherzukommen.
Anstatt eine Frage sofort zu beantworten, nehmen sich diese Modelle Zeit: Sie durchlaufen innere Argumentationsketten, bevor sie antworten. Im Laufe dieses inneren Monologs konnten diese Modelle auch erstmals eine größere Zahl an Werkzeugen – zum Beispiel eine Internetsuche – einbinden und flexibel auf die zurückgemeldeten Ergebnisse reagieren.
Damit überwanden Sprachmodelle endgültig die Einschränkungen des bloßen Dialogs mit der Nutzerschaft. Aus einem Gesprächspartner wurde ein operativer Assistent, der recherchieren, berechnen, planen und aus Teilschritten Rückschlüsse ziehen kann. Und der Begriff KI-Agent, der für ein solches System geprägt wurde, stieg schnell zum Buzzword des Jahres 2025 auf.
Die meisten größeren Softwarefirmen veröffentlichten im Laufe des Jahres ihre eigenen Agenten. Typische Anwendungsfälle sind dabei das Durchführen umfangreicher Recherchen im Internet mit anschließender Zusammenfassung der Ergebnisse oder die Entwicklung ganzer Software-Anwendungen . Auch Softwarefirmen wie Salesforce oder SAP stellten eigene Agenten vor, um den Nutzern bei der Bedienung ihrer jeweiligen Produkte zur Seite zu stehen.
Eine wichtige Grundlage vieler Agenten blieben die Sprachmodelle der großen Technologiefirmen, die mittlerweile in einer nur noch schwer überschaubaren Vielfalt zur Verfügung stehen. Google Deepmind veröffentlichte im März Gemini 2.5 Pro, eine multimodale KI, die Text, Code, Bilder und Videos in einem Arbeitsfluss verarbeiten kann, und legte schon im November mit der Version 3.0 pro nach.
Konkurrent Anthropic stellte im Mai Claude Opus 4 vor, dessen Agentenfähigkeiten vor allem in Entwicklungsumgebungen beeindruckten, und ließ ebenfalls im November die Version 4.5 folgen. Zu diesen Modellen gesellen sich noch diverse Spezialvarianten, abgespeckte und damit kostengünstigere Mini-Versionen sowie die entsprechenden Modelle weiterer Wettbewerber.
Geringere Technologiesprünge als in den beiden Vorjahren
Allgemein zeigte sich darin ein neuer Trend: Während in den Jahren 2023 und 2024 die Qualitätssprünge von einer Modellgeneration zur nächsten jeweils noch großes Aufsehen erregten, lieferten die großen KI-Labore 2025 eher einen steten Strom inkrementeller Verbesserungen.
Besonders deutlich wurde dies im August, als das mit Spannung erwartete GPT-5-Modell von OpenAI veröffentlicht wurde: Das Modell selbst war zwar seinen vorherigen Versionen in vielen Bereichen überlegen – vor allem bei wissenschaftlichen Anwendungen und Softwareentwicklung -, stellte aber bei Weitem keinen so großen technologischen Sprung dar , wie es bei den Vorgängerversionen GPT-3 und GPT-4 noch der Fall war.
Immer wichtiger wurde 2025 hingegen vor allem die Einbindung der KI in Arbeitsabläufe und Geschäftsmodelle. Ein beeindruckendes Beispiel hierfür ist Google mit seiner Suchmaschine – einem wahren Goldesel, der im Jahr 2024 rund 270 Milliarden US-Dollar an Werbeeinnahmen erzeugt hat.
Noch vor drei Jahren stand Google vor einem ernsthaften Innovator's Dilemma : Wenn Nutzer nicht mehr Internetseiten suchen und lesen wollen, sondern von einer KI direkt Antworten auf ihre Fragen erwarten – wie lässt sich dann mit Internetsuche noch Geld verdienen? Und wie kann Google als Quasi-Monopolist seinen Kunden die viel teureren, da rechenintensiveren KI-Antworten anbieten, ohne sein hochprofitables Geschäftsmodell zu gefährden?
Mittlerweile scheint es so, als ob Google dieses Problem durch eine intelligente Verzahnung von KI mit seinem Kerngeschäft gelöst hat. Mit dem neuen KI-Modus und den KI-Übersichten liefert Google keine einfache Ergebnisliste mehr, sondern direkt bequeme, verständliche Antworten und Zusammenfassungen – oft angereichert mit Quellenlinks und weiterführenden Optionen. Die notwendige Rechenleistung pro Anfrage und damit die Kosten für diese Dienstleistung sind dabei seit 2023 dank technischer Verbesserungen dramatisch gefallen.
Für Google bedeutet das eine strategische Neubewertung seines Kerngeschäfts. Der Schritt hin zu KI-gestützter Suche schützt das Werbemodell: Wenn Nutzer weniger auf externe Seiten klicken, bleibt Google – als Plattform der Antwort – zentral. Zugleich schafft das Unternehmen neue Möglichkeiten, Werbung, Empfehlungen und Geschäftsdienste direkt mit der KI-Suche zu verknüpfen. Die aktuellen Rekordstände im Börsenkurs seiner Muttergesellschaft Alphabet belegen, dass man zumindest an den Aktienmärkten an den Erfolg dieser Strategie glaubt.
Nicht alle Firmen profitieren stark von KI
Andererseits blieb aber der Effekt durch KI-Nutzung gerade in den traditionellen Branchen auch 2025 hinter manch hochgesteckten Erwartungen zurück. Neben den üblichen kulturellen, finanziellen oder organisatorischen Gründen, welche die Einführung einer neuen Technologie hemmen können, unterliegen gerade die großen Sprachmodelle noch immer technischen Limitationen, die ihre Nützlichkeit im Unternehmensalltag einschränken .
Es ist zwar beeindruckend, wenn ein Modell wie GPT-5 akademische Spitzenleistungen in Biochemie oder Mathematik erbringen kann, aber für die meisten alltäglichen Anwendungen spielt dies keine Rolle. Ein großes Problem ist allerdings, dass es nach wie vor keinen voll befriedigenden Weg gibt, Sprachmodelle während ihres Betriebs dazulernen zu lassen. Daher bleibt es gerade für Anwendungen im Unternehmen eine Herausforderung, die Modelle mit relevantem Kontext zu füttern, zum Beispiel mit einem Verständnis der eigenen Prozesse, Produkte oder Märkte. Dies ist einer der Gründe dafür, dass sich auch im Jahr 2025 die meisten Unternehmen noch schwer taten, ihre Prozesse mithilfe von KI grundlegend zu verbessern .
Ungeachtet dieser Schwierigkeiten nahmen die Investitionen in KI-Forschung und vor allem in Rechenkapazitäten weiter zu. So berichtet allein Microsoft , im Jahr 2025 rund 80 Milliarden US-Dollar in den Ausbau von KI-Rechenzentren zu pumpen. Die Investitionen der anderen großen Technologiekonzerne Alphabet, Amazon und Meta liegen in derselben Größenordnung.
Angeheizt wurden die Befürchtungen durch die Zunahme sogenannter zirkulärer Geschäfte , bei denen auf dem Papier hohe Umsätze dadurch erzeugt werden, dass Geld innerhalb der KI-Branche hin- und hergereicht wird. So hat beispielsweise Nvidia angekündigt, 100 Milliarden US-Dollar in OpenAI zu investieren, während im Gegenzug OpenAI Rechenzentren mit einer Leistung von 10 Gigawatt mit Nvidia-Hardware ausrüsten will.
Die Aktienmärkte zeigten sich von allen Blasenängsten jedoch bislang eher unbeeindruckt: Nvidia führt als wichtigster Zulieferer der KI-Industrie die Liste der weltweit wertvollsten Aktiengesellschaften an und erreichte im Oktober 2025 als erstes Unternehmen überhaupt eine Marktkapitalisierung von fünf Billionen Dollar.
Günstig geht auch
Quasi als Gegenpol zu den schwindelerregenden Investitionen der Technologiekonzerne machte allerdings auch das Open-Source-Ökosystem im Jahr 2025 große Fortschritte. Mit dem eingangs erwähnten Release von Deepseek‑R1 im Januar erregte ein vorher wenig bekannter chinesischer Anbieter Aufsehen – das Modell wurde mit frei einsehbaren Modellparametern veröffentlicht und erreicht laut mehreren Vergleichen eine Leistungsfähigkeit, die mit großen proprietären Systemen konkurrieren kann.
Im Frühjahr wurde Deepseek-R1 zudem mit einem großen Update versehen: Die Version Deepseek‑R1‑0528 steigerte die Fähigkeiten bei Mathematik, Programmierung und logischem Denken deutlich, was viele in der Szene als Beleg dafür sahen, dass Open-Source-Modelle nicht nur mitziehen, sondern in Teilbereichen sogar führend sein können.
Doch Deepseek war nicht allein. Im Laufe des Jahres traten mehrere Modelle und Initiativen auf den Plan, die zeigten, wie vielfältig quelloffene Modelle sein können.
Das Modell AM‑Thinking‑v1 beispielsweise – veröffentlicht im Mai 2025 ebenfalls von einer chinesischen Arbeitsgruppe – belegte eindrucksvoll, dass auch mittelgroße Open-Source-Sprachmodelle mit rund 32 Milliarden Parametern in Mathematik- und Coding-Benchmarks starke Leistungen erbringen können. Diese Ergebnisse liegen auf dem Niveau oder sogar über den Werten vergleichbarer, deutlich größerer Mixture-of-Experts-Modelle wie Deepseek-R1, obwohl AM-Thinking-v1 nur einen Bruchteil der Parameter hat. Damit wurde deutlich: Leistungsfähigkeit braucht nicht immer riesige Modelle und entsprechende Rechenkapazität.
Ein weiteres Beispiel verbindet quelloffene Sprachmodelle mit den Funktionen einer klassischen Suchmaschine: Open Deep Search (ODS) ist ein offenes KI-Framework zur Informationssuche und -verarbeitung, das von einem Forschungsteam der Sentient Foundation sowie Wissenschaftlern der University of Washington, Princeton University und UC Berkeley vorgestellt wurde . Ziel des Projekts ist es, die wachsende Lücke zwischen proprietären Such-KI-Produkten großer Technologieanbieter und offenen Alternativen zu schließen.
Im Kern besteht ODS aus zwei modularen Komponenten: dem Open Search Tool und dem Open Reasoning Agent. Nutzerinnen und Nutzer können ein beliebiges großes Sprachmodell, etwa Deepseek-R1, als Basis einsetzen und dieses durch ODS mit erweiterten Such- und Denkfähigkeiten ausstatten. Praktisch bedeutet das: Open Deep Search kann nicht nur einfache Webanfragen beantworten, sondern auch komplexere Wissens- und Analyseaufgaben, indem es LLM-Fähigkeiten mit aktuellen Webinformationen und strukturiertem Reasoning verbindet.
Regulatorik holt die Technologie ein
Während sich 2025 technisch durch inkrementelle Fortschritte und neue Anwendungsformen auszeichnete, gewann parallel ein weiterer Faktor an Bedeutung: die Regulierung von künstlicher Intelligenz. Spätestens mit dem Inkrafttreten zentraler Teile des europäischen AI Act wurde klar, dass KI nicht länger nur eine technologische oder wirtschaftliche Frage ist, sondern zunehmend auch eine rechtliche und organisatorische.
Der AI Act ist das weltweit erste umfassende Gesetz zur Regulierung von KI-Systemen . Er verfolgt einen risikobasierten Ansatz und unterscheidet KI-Anwendungen danach, welches Gefährdungspotenzial sie für Grundrechte, Sicherheit und gesellschaftliche Prozesse darstellen. Verbotene Praktiken (z. B. Social Scoring), Hochrisikosysteme (etwa in Medizin, Personalrekrutierung oder Kreditvergabe) und allgemein einsetzbare KI-Modelle werden dabei jeweils unterschiedlich behandelt.
Für Unternehmen bedeutete das im Jahr 2025 vor allem eines: Vorbereitung. Auch wenn viele Verpflichtungen erst schrittweise greifen, begannen Compliance-, IT- und Rechtsabteilungen damit, KI-Anwendungen zu inventarisieren, sie Risikoklassen zuzuordnen und neue Governance-Strukturen aufzubauen.
Der AI Act und die großen Sprachmodelle
Besonders intensiv diskutiert wurde 2025 die Regulierung sogenannter General Purpose AI Models – also großer Sprachmodelle wie GPT-5, Gemini oder Claude, die für eine Vielzahl sehr unterschiedlicher Anwendungen genutzt werden können. Der AI Act verpflichtet Anbieter solcher Modelle unter anderem zu technischer Dokumentation, Transparenz über Trainingsdaten und – bei besonders leistungsfähigen Systemen – zu zusätzlichen Risikominderungsmaßnahmen.
Für die großen KI-Labore bedeutete dies einen erheblichen Mehraufwand, aber auch eine strategische Chance: Wer früh regulatorische Anforderungen erfüllt, kann dies als Qualitätsmerkmal vermarkten und sich einen zeitlichen Vorsprung gegenüber den Wettbewerbern sichern. OpenAI, Google und Anthropic betonten 2025 daher verstärkt ihre internen Sicherheitsprozesse, Red-Teaming-Ansätze und Governance-Strukturen.
Nach einem Jahr der Konsolidierung deutet vieles darauf hin, dass 2026 weniger von spektakulären Technologiesprüngen, sondern stärker von Umsetzung und Integration geprägt sein wird. KI-Agenten werden alltäglicher, unauffälliger – und damit wirtschaftlich relevanter.
Der Wettbewerb wird sich weniger um die "klügste" KI drehen als um diejenige, die sich am besten in bestehende Prozesse, Produkte und regulatorische Rahmen einfügt. Im Zuge dieses Reifungsprozesses wird KI immer weniger als Wundermaschine wahrgenommen, dafür mehr als Infrastruktur – vergleichbar mit Cloud Computing oder dem Internet selbst.
KI wird körperlich
Parallel dazu setzt sich – etwas abseits der öffentlichen Aufmerksamkeit – ein zweiter Trend fort: die zunehmende Verschmelzung von KI und Robotik. Während bislang spektakuläre Demonstrationen von Prototypen durch Firmen wie Boston Dynamics die Wahrnehmung von humanoiden Robotern prägten, kündigten mehrere Unternehmen für 2026 erstmals eine industrielle Skalierung humanoider Roboter an.
So ging beispielsweise das Start-up Figure AI eine Partnerschaft mit BMW ein, um humanoide Roboter in der Automobilproduktion einzusetzen, der chinesische Konzern XPeng plant die Massenproduktion seiner humanoiden Iron-Roboter bis Ende 2026, ebenso wie der bayerische Automatisierungsspezialist Agile Robots . Und dies sind nur einige Beispiele für ein aufstrebendes Ökosystem mit Dutzenden Entwicklern ähnlicher Systeme weltweit.
Der Übergang von rein digitaler zu "verkörperter" künstlicher Intelligenz zeichnet sich damit immer deutlicher ab – und deutet an, dass die nächste große Wachstumsphase der KI nicht nur auf dem Bildschirm, sondern zunehmend in der physischen Welt stattfinden dürfte.
Helmut Linde leitete verschiedene Data-Science-Teams in deutschen Konzernen und ist nun bei seinem Arbeitgeber für die Digitalisierung von Forschung und Entwicklung verantwortlich. Als Mathematiker und Physiker ist er fasziniert von naturwissenschaftlichen Themen sowie der Anwendung und der Zukunft der künstlichen Intelligenz.
heise+ | Waipu.tv im Test: Streaming-Stick fürs Internetfernsehen
Von Heise — 19. Dezember 2025 um 07:00
Für den Internet-TV-Dienst Waipu.tv ist der Streaming-Stick in einer zweiten Auflage erschienen. Die Neuerungen sind überschaubar, aber durchaus sinnvoll.
Exarings Live-TV-Plattform Waipu.tv spielt mit jedem schnellen Internetanschluss (ab 16 Mbit/s) zusammen, verspricht im Unterschied zu Diensten wie Zattoo aber dank eigenem Glasfasernetz die Verlässlichkeit und Qualität eines Kabelanschlusses (Over-The-Top-TV). Mittlerweile nutzen nach Angaben von Exaring rund zwei Millionen Haushalte den IPTV-Dienst – auch, weil er sich seit einigen Jahren mit einem Streaming-Stick des Betreibers auf TVs ohne passende App holen lässt.
Dieser „Waipu.tv 4K Stick [1] [1]“ trug, ist nun in einer Neuauflage als „Waipu.tv Stick (2. Generation)“ erschienen. Nicht zu verwechseln ist er mit dem „Hybrid Stick“, der dank integriertem DVB-Tuner neben IPTV-Streaming die nahtlose Nutzung von Kabel-TV (DVB-C) und Antennenfernsehen (DVB-T2) ermöglichte. Diesen hatte Exaring zum Wegfall des sogenannten Nebenkostenprivilegs kurz im Sortiment, bietet ihn aber mittlerweile nicht mehr an. Die „Waipu.tv Box [2] [2]“ als Topmodell gibt es aber weiterhin.
Wie der alte ist der neue Stick tatsächlich ein kleines Kästchen mit kurzem HDMI-Kabel. Auch er kommt wieder mit einer Fernbedienung mit Direktwahltasten – diesmal für Netflix und das hauseigene Abruf-Angebot „Waiputhek“ – sowie mit Zifferntasten, sodass sich Sender direkt über ihre Kanalnummern anwählen lassen. Alternativ gelangt man über eine dedizierte Taste auf der Fernbedienung zur übersichtlichen Programmzeitschrift (EPG) und von dort zu den einzelnen Sendern. Schließlich lassen sich die Sender über die Fernbedienung per Spracheingabe (nach Knopfdruck) finden.
URL dieses Artikels: https://www.heise.de/-10748165
Warum genau entfernt sich der Mond langsam aber stetig von der Erde? Vermittelt durch die Gezeiten wechselwirken Erde und Mond. Und das hat erstaunliche Folgen.
Die Zeit, die das Licht benötigt, um zum Mond – und zurück – zu gelangen, gibt die Entfernung zwischen Erde und Mond und deren Veränderung äußerst präzise wieder.
Die Entfernung zum Mond ändert sich allerdings auch innerhalb eines jeden einzelnen Monats. Der Mond ist typischerweise 385.000 km von der Erde entfernt [6], doch seine Umlaufbahn um die Erde ist eine Ellipse. Daher variiert die Erde-Mond-Distanz um immerhin etwa 20.000 km. Diese Änderung um etwa fünf Prozent erklärt auch, warum die Supermonde etwas größer [7] erscheinen als der normale Vollmond.
Die Ozeane sind schuld
Aber warum nun entfernt sich der Mond von der Erde? Es liegt an den Gezeiten. Und es ist ein erstaunlich komplexer Zusammenhang.
Gezeiten entstehen aus Unterschieden in den Gravitationskräften, [8] die auf ein Objekt – in diesem Fall die Erde – einwirken. Die vom Mond ausgeübte Gravitations- oder auch Gezeitenkraft lässt die Ozeane in zwei [9] Flutbergen hin und her schwappen, die zum Mond hin und von ihm weg zeigen.
Das geschieht, wie jedes Kind weiß, weil die vom Mond auf die Erde wirkende Gravitationskraft nicht überall gleich stark ist. Der Mond zieht das Wasser an.
Warum zwei Flutberge?
Warum es auf der Mond-abgewandten Seite der Erde zu einem Flutberg kommt, ist dagegen weit weniger trivial: Denn dort schleudert die durch die Rotation des Erde-Mond-Systems um ihren gemeinsamen Massenschwerpunkt wirkende Fliehkraft das Wasser nach außen. Deshalb wechseln Ebbe und Flut zweimal und nicht einmal am Tag.
Der gemeinsame Schwerpunkt des Erde-Mond-Systems liegt übrigens etwa 1700 km unter der Erdoberfläche und wandert [10] entsprechend der jeweiligen Position von Mond und Erde mit.
Während die Erde rotiert, wandern die Flutberge mit der Erddrehung und – der Mondbahn folgend – rund um den Planeten. Die dadurch verursachten Tiden machen in der Ostsee und dem Mittelmeer nur ein oder zwei Dutzend Zentimeter aus. Im französischen St. Malo werden es aufgrund der Trichterform der Küste dagegen zwölf Meter.
Ein Flutberg beschleunigt den Mond ...
Die beiden Flutberge liegen aber nicht genau unter dem Mond bzw. ihm gegenüber. Sie eilen ihm ein wenig voraus, weil die Erde rotiert und sie vorwärtsziehen. Zudem üben die Flutberge ihrerseits eine Gravitationskraft auf den Mond aus. Der Flutberg, der der Mondseite zugewandt ist, zieht den Erdtrabanten nicht nur zum Erdzentrum hin, sondern auch ein Stückchen vorwärts [11] auf seiner Bahn.
Dieser vorwärts gerichtete Zug beschleunigt den Mond beständig ein ganz kleines bisschen, wodurch die Größe seiner Umlaufbahn [12] zunimmt. Das funktioniert wie bei einem Ball, der höher fliegt, wenn man ihn stärker hochwirft. Der Effekt ist natürlich sehr geringfügig und nur über Jahre gemittelt nachweisbar.
Während seine Umlaufbahn größer wird, gewinnt der Mond also an Impuls [13]. Auch dieses Phänomen kann man im Alltag nacherleben: Wenn man ein Gewicht an einer Schnur im Kreis herumwirbelt, wird es umso schwerer anzuhalten sein, je länger die Schnur ist.
... was die Erdrotation verlangsamt
Weil die Erde die Arbeit verrichtet, wenn sie den Impuls des Mondes erhöht, verlangsamt sich [14] im Gegenzug die Erdrotation. Ihr Impuls geht auf den Mond über. Anders ausgedrückt: Wenn der Bahnimpuls des Mondes zunimmt, nimmt im Tausch dafür der Rotationsimpuls der Erde ab. Dieser Austausch verlängert nach und nach den Erdentag.
Die Tage der Erde waren früher also kürzer. Und in geologischen Zeiträumen werden diese minimalen Veränderungen spürbar: Zu Zeiten der Dinosaurier war der Erdentag etwa eine halbe Stunde kürzer [15]. Aber der Mond war der Erde damals nur etwa 2.500 Kilometer näher.
Interessanterweise bestätigt [16] die Untersuchung von Wachstumsmustern versteinerter Muschelschalen diesen kürzeren Erdentag vor knapp 70 Millionen Jahren.
Die ferne Zukunft
In etwa 600 Millionen Jahren wird sich der Mond so weit von der Erde entfernt haben, dass von der Erde aus keine totalen, sondern nur noch ringförmige [17] Sonnenfinsternisse zu beobachten sein werden. Der Mond wird dann sichtbar kleiner erscheinen als die Sonne.
Theoretisch könnte sich die Erdrotation schließlich so weit verlangsamen, bis die Erde für eine Umdrehung genauso braucht wie der Mond für einen Umlauf. An diesem Punkt würde der Mond aufhören, sich weiter zu entfernen, und man könnte den Mond nur noch von einer Seite der Erde aus sehen.
Doch vorher wird die Sonne so heiß werden, dass die Ozeane verdampfen [18]. Dann werden auch Ebbe und Flut enden und der Mond auf eine endgültige [19] Umlaufbahn einschwenken.
Noch viel später wird sich die Sonne zu einem Roten Riesen [20] aufblähen. Dabei wird die Erde den Mond zerreißen und die Sonne dann die Reste zusammen mit der Erde einfach verschlucken [21].
URL dieses Artikels: https://www.heise.de/-11112247
Was ist los bei Outfittery? Phishingversuch per Kunden-Mailing
Von Heise — 18. Dezember 2025 um 15:38
(Bild: wk1003mike/Shutterstock.com)
Der Berliner Kleidungsversand bat Kunden um eine Aktualisierung ihrer Zahlungsdaten. Der Link in der E-Mail führte jedoch auf eine Phishing-Seite.
Das Berliner Unternehmen Outfittery wirbt mit einem innovativen Konzept: Kunden bekommen individuell auf sie abgestimmte Outfits statt einzelner Kleidungsstücke. Seit Anfang Dezember gibt es obendrein jedoch auch Phishing-Versuche. Diese verweisen auf offizielle Outfittery-Domains und stammen offenbar aus den Systemen des Unternehmens selbst. Eine persönliche Spurensuche.
In der Vorweihnachtszeit trudeln allerlei Newsletter und Angebote im digitalen Postfach ein: Da möchte ein Versand auf seine Bestellfristen vor dem Fest hinweisen, ein Onlineshop hat Geschenkideen für die Lieben und ein dritter bittet um dringende Aktualisierung der Zahlungsdaten. So weit, so normal, doch halt: Irgendwas ist komisch an der E-Mail von Outfittery.
Verdächtige E-Mail aus legitimer Quelle
Die Aufmachung der Nachricht, die am 5. Dezember um 9:20 vormittags in meiner Inbox eintrudelte, erinnert stark an die Designsprache von Outfittery: Vor pastellfarbenem Hintergrund bewegen sich modische, aufeinander abgestimmte Kleidungsstücke. Auf Englisch werde ich – mit Vornamen angesprochen – auf ein Problem mit meiner Bezahlmethode aufmerksam gemacht und gebeten, über einen blau markierten Link eine Aktualisierung vorzunehmen. Nur so könne meine Mitgliedschaft weitergehen.
Phishingmail von Outfittery: Bitte dringend Zahlungsdaten ändern
Allein: welche Mitgliedschaft? Schließlich habe ich den Dienst nie wirklich genutzt, sondern lediglich einmal ein Outfit zusammengestellt und somit auch nie Zahlungsdaten hinterlegt. Die E-Mail war zudem an die mit meinem Facebook-Konto verbundene Mailadresse adressiert – für echte Kundenkonten verwende ich individuelle Adressen.
Vom CRM in die Irre geführt?
Ein genauerer Blick auf die URL, die hinter dem blauen Button, aber auch alle anderen Links in der E-Mail hinterlegt ist: Sie zeigt auf http://lnk.stylist.outfittery.com/ls/click?upn=<lange Zeichenkette>, kann also auch dem Unternehmen zugeordnet werden, das international tätig ist. Dass der Trackinglink per HTTP-URL aufgerufen wird und somit offenbar zu den letzten unverschlüsselten Webseiten der Welt [1] gehört – geschenkt. Beim Klick lande ich jedoch an einer unerwarteten Stelle: Zunächst wird der HTTP- auf einen HTTPS-Link umgebogen (ich fühle mich gleich viel sicherer), dann jedoch auf die kryptische Adresse https://l00ginse1tuponline.net/marketstorep/ weitergeleitet. Dort befand sich zunächst eine Phishing-Seite [2] (registriert am 2. Dezember), aktuell die Sperrseite eines Hosters namens CloudAccess.
Betrug erkannt: Der Hoster sperrte die Outfittery-Phishingseite.
Offenbar hatten Kriminelle also zumindest kurzzeitig Zugriff auf das System, mit dem Outfittery Tracking-Links für seine Marketingmails erstellt. Sie haben einen Link erstellt, der sein wahres Ziel maskiert und ihm den Ruch der Legitimität verleiht – und das bis heute: Auch am 18. Dezember, fast zwei Wochen nach der E-Mail, funktioniert die böswillige Weiterleitung.
Die Header bringen’s an den Tag
Und woher kam die E-Mail? Dem leidgeprüften Mailserver-Veteranen bleibt der reflexartige Griff zur Tastenkombination Strg-U, um die Quellansicht zu öffnen und die Mailheader zu begutachten. Und die zeigen: Die Mail wurde über einen Server versandt, der als legitime Quelle von E-Mails der Firma Outfittery gilt. Das beweisen die gültigen DKIM-Header. Die Rückwärtsauflösung passt zum DNS-Eintrag, die IP gehört zum Maildienstleister Twilio (früher Sendgrid). Zudem ergibt die E-Mail keine Hinweise auf simple Header-Fälschtricks, wie Spammer sie seit Jahrzehnten verwenden.
Kurze Wege: Der Mailserver von Outfittery kippte die Phishingmail direkt bei meinem ein. Das erleichtert die Rückverfolgung.
Nach der Analyse wird klar: Da wurde eine E-Mail über Outfitterys technische Plattform versendet, sie enthält einen Link zur offiziellen Domain des Unternehmens, verweist aber auf einen Phishing-Link. Das deutet auf einen Sicherheitsvorfall hin. So schätzten auch mehrere Leser die Sachlage ein, die uns im Laufe der vergangenen Woche von gleichlautenden E-Mails berichteten. Ein Einzelfall scheint also ausgeschlossen, unklar bleibt jedoch die Quelle des Vorfalls. Gab es einen Einbruch in die Systeme von Outfittery oder des Maildienstleisters? Sind womöglich personenbezogene Daten abgeflossen?
Outfittery taucht ab
Es wurde Zeit, bei Outfittery nachzufragen. Am 9. Dezember stellte ich dem Unternehmen die üblichen Fragen: Woran hat et jelegen [3], welche Daten wurden kompromittiert und welche Gegenmaßnahmen traf Outfittery? Auf meine Anfrage an die Support- und Datenschutzadresse antwortete das Unternehmen nicht. Eine Woche später hakte ich nach und nahm die mutmaßliche Adresse des Datenschutzbeauftragten der Konzernmutter, dpo@outfittery.com, in den Verteilerkreis auf. Diese Adresse antwortete mir umgehend: mit einer Unzustellbarkeitsnachricht.
Ansonsten herrschte Funkstille, obwohl ich um Antwort bis zum gestrigen 17. Dezember bat. Auch telefonisch macht Outfittery sich rar: Unter der Berliner Telefonnummer, die in der Datenschutzerklärung hinterlegt ist, hört der geneigte Redakteur lediglich eine Bandansage, man habe den Telefonsupport leider eingestellt. Das Unternehmen wechselte kürzlich den Besitzer: Im März verkündete der Geschäftsführer des spanischen Unternehmens Lookiero gemeinsam mit Julia Bösch, der Gründerin des Berliner Unternehmens eine Fusion [4]. Bösch sowie der Prokurist schieden im August dieses Jahres aus der Geschäftsführung aus, die seitdem in spanischer Hand ist.
Dennoch bleibt unklar, was genau vorgefallen ist – auch unsere Leser berichten, auf ihre Anfragen ans Unternehmen keine Antwort erhalten zu haben. Licht ins Dunkel kann nun wohl nur noch eine Anfrage bei der Berliner Datenschutzbeauftragten liefern.
URL dieses Artikels: https://www.heise.de/-11119889
Links in diesem Artikel: [1] https://www.heise.de/news/Chrome-warnt-ab-2026-standardmaessig-vor-HTTP-Verbindungen-10962838.html [2] https://imgur.com/5N63QBD [3] https://www.youtube.com/watch?v=2paOYObEhoA [4] https://www.leadersnet.de/news/87348,outfittery-und-lookiero-schliessen-sich-zusammen.html [5] https://pro.heise.de/security/?LPID=45883_HS1L0001_33064_999_0&wt_mc=intern.fd.secuirtypro.Aktionsende25.disp.disp.disp [6] mailto:cku@heise.de
Frankreich untersucht „ausländische Einmischung“ nach Malware-Fund auf Fähre
Von Heise — 18. Dezember 2025 um 14:33
(Bild: Tatoh/Shutterstock.com)
Die französische Polizei hat zwei Crew-Mitglieder auf einer Fähre festgenommen. Die wollten sich Zugang zu DV-Systemen verschaffen.
Am Freitag vergangener Woche hat die französische Polizei zwei verdächtige Crew-Mitglieder auf einer Personenfähre festgenommen. Die Verdächtigen sollen versucht haben, sich unbefugt Zugang zu den Datenverarbeitungssystemen des Schiffs zu verschaffen.
Das berichtet die Nachrichtenagentur AP [1] und führt aus, dass es sich bei den Verdächtigen um einen Letten und einen Bulgaren handelt. Die französische Spionageabwehrbehörde untersucht den mutmaßlichen Cyberangriff, der auf einer namentlich nicht genannten internationalen Passagierfähre stattfand. Das lettische Besatzungsmitglied ist demnach in Haft und wird beschuldigt, für eine nicht identifizierte ausländische Macht gehandelt zu haben. Dem in Haft genommenen Lette werfen die Behörden kriminelle Verschwörung vor sowie „Hacking“-bezogene Straftaten mit dem Ziel, den Interessen einer ungenannten ausländischen Macht zu dienen. Der Bulgare kam nach der Befragung wieder auf freien Fuß.
Hinweise weisen nach Russland
Frankreichs Innenminister Laurent Nunez deutete jedoch an, dass Russland im Verdacht stehe und äußerte demnach: „Derzeit stammt ausländische Einmischung sehr oft aus demselben Land.“ Das passt zu den Beobachtungen der europäischen Verbündeten der Ukraine, dass Russland einen hybriden Krieg gegen sie führt und dafür zu Mitteln wie Sabotage, Cyberangriffe, Desinformation und anderen feindlichen Machenschaften [2] greift.
Italienische Behörden haben Frankreichs Generaldirektion für innere Sicherheit den Hinweis geliefert, dass Computersysteme an Bord der Fähre im Hafen von Sète mit einer Software infiziert seien, die manchmal von Cyberkriminellen genutzt werde, hat dem Bericht zufolge die Pariser Staatsanwaltschaft mitgeteilt. Ein Remote Access Trojan (RAT) könnte genutzt worden sein, um die Kontrolle über die Rechner der Fähre zu übernehmen. Innenminister Nunez erklärte, dass es sich um eine sehr ernste Angelegenheit handelt. Man wisse nicht, ob die Verdächtigen die Fähre entführen wollten. Dem fügte er hinzu, dass die Untersuchungen einer Spur der Einmischung zu folgen scheinen, und zwar ausländischer Einmischung.
In Lettland kam es demnach zu Durchsuchungen, jedoch hat die lettische Polizei keinen Kommentar abgegeben. Die Computer der Fähre wurden auf Sicherheit überprüft und die Fähre wieder in Dienst gestellt.
URL dieses Artikels: https://www.heise.de/-11119833
Links in diesem Artikel: [1] https://apnews.com/article/france-italy-ferry-cber-attack-investigation-1b66cda62bf8f52ab448799672283f2b [2] https://www.heise.de/news/Russlands-Einfluss-Kritik-an-Luecken-bei-Cybersicherheit-11119063.html [3] https://pro.heise.de/security/?LPID=45883_HS1L0001_33064_999_0&wt_mc=intern.fd.secuirtypro.Aktionsende25.disp.disp.disp [4] mailto:dmk@heise.de
EMBA 2.0: Firmware-Analyzer erreicht 95 Prozent Emulationserfolg
Von Heise — 18. Dezember 2025 um 12:33
(Bild: heise medien)
Das Firmware-Analysetool EMBA erreicht in Version 2.0 eine Emulationserfolgsrate von 95 Prozent und lässt damit ältere Werkzeuge deutlich hinter sich.
Die Entwickler von EMBA haben Version 2.0 ihres Firmware-Analysetools veröffentlicht. Das Release markiert nach Angaben des Projekts einen Meilenstein auf dem Weg zur automatischen Erkennung und Verifikation von Schwachstellen in Firmware-Images. EMBA ist ein Bash-basiertes Open-Source-Werkzeug zur automatisierten Firmware-Analyse. Es extrahiert Firmware-Images, führt statische und dynamische Analysen durch, generiert Software Bills of Materials (SBOMs) und erstellt Web-Reports. Die neue Version hebt sich durch eine überarbeitete System-Emulations-Engine hervor, die Geräte in einer emulierten Umgebung automatisch startet und so erkannte Schwachstellen verifiziert.
Benchmarks mit Router-Firmware
Die Entwickler haben EMBA 2.0 mit mehreren Firmware-Testsets verglichen. Beim FirmAE-Corpus, einem vor 2020 zusammengestellten Datensatz mit 1074 Firmware-Images, erreichte EMBA eine Erfolgsrate von 95 Prozent und identifizierte dabei über 6000 Netzwerkdienste. FirmAE selbst war ursprünglich auf eine Erfolgsrate von 79 Prozent optimiert worden, während Firmadyne bloß 16 Prozent schaffte. Als Erfolg gilt hierbei, dass mindestens ein Netzwerkdienst in der emulierten Umgebung erreichbar ist.
Bei einem am Fraunhofer FKIE Home Router Security Report orientierten Testset aus dem Jahr 2020 mit 126 Firmware-Images erreichte EMBA eine Erfolgsrate von 87 Prozent (über 600 Netzwerkdienste), FirmAE kam auf 30 Prozent, Firmadyne auf 5 Prozent. Ein neueres Testset von 2022 mit 121 Images bestätigte den Trend: EMBA emulierte 76 Prozent erfolgreich (rund 400 Netzwerkdienste), FirmAE nur 16 Prozent, Firmadyne lediglich 2 Prozent. Die Benchmarks zeigen, dass die Erfolgsrate bei aktuellerer Firmware sinkt, EMBA aber den Vorsprung zu den älteren Projekten hält.
KI-Integration und SBOM-Unterstützung
Version 2.0 bietet neben der verbesserten Emulation weitere neue Features: Die Integration von Dependency-Track ermöglicht den automatischen Transfer von SBOMs in Vulnerability- und SBOM-Management-Tools. EMBA unterstützt nun VEX (Vulnerability Exploitability eXchange) und erweiterte SBOM-Quellen. Das Tool nutzt CycloneDX-JSON als SBOM-Format und kann die Daten direkt an Dependency-Track übergeben.
Eine KI-unterstützte Firmware-Analyse ergänzt die klassischen Scan-Module. Neue Analysekomponenten wie Capa mit ATT&CK-Support, Semgrep und Zarn für Perl-Analysen erweitern die Erkennungsfähigkeiten. Das Modul S09 zur Binary-Versionserkennung wurde im Threading verbessert, was die Performance steigert. Die Emulation basiert auf QEMU mit einem angepassten Kernel-Build der Version 4.14.336 LTS, der bessere Kompatibilität mit älterer und aktueller Router-Firmware bieten soll.
Während die Benchmark-Ergebnisse beeindruckend ausfallen, bleiben einige Fragen offen. Die genauen Firmware-Korpora sind nicht vollständig dokumentiert, die Testsets orientieren sich an Home-Router-Firmware von Herstellern wie AVM, Netgear und Asus. Die Rohdaten der Firmware-Images liegen nicht direkt im Repository, sondern sind über externe Quellen wie Zenodo verfügbar. Eine unabhängige Verifikation der Benchmarks durch Dritte steht aus, obwohl das Projekt sich auf akademische Arbeiten wie jene zu FirmAE bezieht.
Die Emulation nutzt QEMU und angepasste Kernel-Patches für Bootloader-Kompatibilität. Diese Patches sind teilweise projektspezifisch, eine Einbringung in Upstream-Projekte wie Linux oder QEMU ist laut Issue-Tracker geplant. Bei proprietären Bootloadern und signierten Firmware-Images stößt EMBA an Grenzen, hier greift das Tool auf User-Mode-Emulation oder statische Analyse zurück.
Bei der Ausführung potenziell schadhafter Firmware in Docker- oder VM-Umgebungen empfehlen die Entwickler zusätzliche Sicherheitsmaßnahmen wie Nested VMs, AppArmor oder SELinux. Netzwerk-Leaks und Kernel-Exploits können Risiken darstellen, weshalb produktive Umgebungen gemieden werden sollten. Rechtliche Aspekte wie die Lizenz-Compliance bei extrahierten proprietären Binaries oder DSGVO-Fragen bei gespeicherten Credentials liegen in der Verantwortung der Nutzer.
Enterprise-Einsatz und Responsible Disclosure
Für Enterprise-Anwender sieht EMBA eine Skalierung über Docker-Swarms und Kubernetes vor. Die Web-UI EMBArk ermöglicht Cluster-Deployments, Performance-Tests zeigen über 100 analysierte Images pro Tag auf 64-Core-Systemen. Die Integration in CI/CD-Pipelines ist über Docker-Images als GitHub Actions oder Jenkins-Steps möglich.
Mechanismen für eine Responsible Disclosure bei automatisch identifizierten Zero-Days sind nicht eingebaut. Die Entwickler verweisen auf manuelle CVD-Prozesse über First.org und den Issue-Tracker. Die Aktualität der Vulnerability-Feeds wird über das Update-Skript sichergestellt, das täglich CVE-Datenbanken wie cve-bin-tool und cve-search aktualisiert.
EMBA positioniert sich als freie Alternative zu kommerziellen Firmware-Scannern. Die höhere Emulationsdeckung gegenüber proprietärer Software spricht für das Werkzeug, allerdings erfordert es eine manuelle Verifikation der Ergebnisse.
URL dieses Artikels: https://www.heise.de/-11119450
Links in diesem Artikel: [1] https://github.com/e-m-b-a/emba/releases/tag/v2.0.0-A-brave-new-world [2] https://www.heise.de/ix [3] mailto:fo@heise.de
O2-Kunden können ab sofort RedCap für Smartwatches nutzen
Von Heise — 18. Dezember 2025 um 15:51
Die Apple Watch Series 11 unterstützt RedCap.
(Bild: Apple)
O2 bietet Vertragskunden ein kostenloses 5G Plus Pack mit RedCap-Technologie an. Die energiesparende 5G-Variante richtet sich an Wearables und IoT-Geräte.
O2 Telefónica stellt seinen Vertragskunden ab sofort ein kostenloses 5G Plus Pack zur Verfügung, das die RedCap-Technologie (Reduced Capability) unterstützt. Wie das Unternehmen in einer Mitteilung [1] erklärt, richtet sich das Angebot vor allem an Nutzer von Smartwatches, Fitness-Trackern und anderen stromsparenden vernetzten Geräten. Hierzu zählt zum Beispiel die Apple Watch.
Im Gegensatz zu vollwertigem 5G arbeitet RedCap mit weniger Antennen, vereinfachten Protokollen und geringerer Bandbreite. Das soll den Energieverbrauch deutlich senken und gleichzeitig eine stabilere Verbindung als bei älteren IoT-Technologien wie NB-IoT oder LTE-M bieten.
Manuelle Buchung erforderlich
Das 5G Plus Pack aktiviert sich nicht automatisch. Kunden müssen es manuell im Mein-O2-Bereich, über die App, telefonisch oder in O2-Shops buchen. Voraussetzungen sind ein 5G-fähiger O2-Mobilfunktarif, eine 5G Plus-kompatible SIM-Karte oder eSIM sowie ein entsprechendes Endgerät.
Bei einem Tarifwechsel entfällt das Pack automatisch, kann aber erneut kostenfrei aktiviert werden. Die Mindestlaufzeit beträgt einen Monat, danach ist eine monatliche Kündigung möglich. Wer noch keine 5G Plus-fähige eSIM besitzt, erhält von O2 per SMS Informationen zum kostenlosen Tausch.
5G Standalone als technische Basis
RedCap setzt auf 5G Standalone (5G-SA), das O2 als „5G Plus“ vermarktet. Dabei nutzt das Netz ausschließlich 5G-Frequenzen bei 700 MHz, 1800 MHz und 3,6 GHz, unabhängig vom LTE-Kernnetz. Nach Angaben von O2 steht das 5G Plus-Netz für mehr als 90 Prozent der Bevölkerung in Deutschland zur Verfügung.
Neben Smartwatches profitieren auch GPS-Tracker, Schlaftracker, Körperanalysewaagen, vernetzte Haushaltsgeräte, Türsensoren, Kameras und smarte Lautsprecher von RedCap.
Wettbewerb noch zurückhaltend
Zuerst hatte die Deutsche Telekom RedCap im Angebot. Während O2 RedCap jetzt aktiv als Privatkunden-Option bewirbt, hält sich Vodafone mit vergleichbaren Angeboten noch zurück. Im Zuge der angekündigten 2G-Abschaltung nannte Vodafone aber RedCap [2] als neue Technologie, die künftig eingesetzt werden soll.
Die Technologie könnte in den kommenden Jahren zum Standard für Wearables werden, da Chiphersteller wie Qualcomm und MediaTek zunehmend RedCap-fähige Modems anbieten. Dadurch dürften auch weitere Gerätekategorien wie vernetzte Actioncams, Fahrradtracker oder AR-Peripheriegeräte von der Technologie profitieren.
URL dieses Artikels: https://www.heise.de/-11120023
Links in diesem Artikel: [1] https://hilfe.o2online.de/o2-news-3/das-neue-5g-plus-pack-inklusive-redcap-bei-o2-662780 [2] https://www.heise.de/news/Vodafone-2G-Ende-bis-2028-und-neue-eCall-Generation-10663908.html [3] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner [4] mailto:mki@heise.de