Der Unternehmensdschungel
(Bild: Erstellt mit KI von Michael Stal)
Produktivität gehört zu den wichtigsten Qualitäten der Softwareentwicklung, wenn auf dem Weg nicht so viele hemmende Hindernisse lauern würden.
Heute erzähle ich von einem typischen Arbeitstag als Softwarearchitekt, der schon vor dem Weg zur Arbeit beginnt.
Der Wecker schreit mit der Begeisterung eines Junior-Entwicklers, der gerade Designmuster entdeckt hat. Als Softwarearchitekt beginnt mein Tag nicht mit Kaffee, sondern mit einem kurzen Blick auf die Produktionswarnungen der letzten Nacht. Drei kritische Systeme sind ausgefallen, zwei Datenbanken laufen aus unerfindlichen Gründen so, als würden sie auf einem Server aus dem Jahr 1995 mit einem antiken Prozessor laufen, und es gibt eine dringende Slack-Nachricht von jemandem, der fragt, ob wir "einfach schnell Blockchain zu unserem Warenkorb hinzufügen können, weil der CEO gehört hat, dass das revolutionär ist".
Ich schenke mir eine Tasse Kaffee ein, der so stark ist, dass er wahrscheinlich selbst Code kompilieren könnte, und bereite mich mental auf einen weiteren Tag vor, an dem ich Geschäftsträume in technische Realität umsetzen und mich dabei durch die tückischen Gewässer der Unternehmensbürokratie navigieren muss.
Während meiner Fahrt zur Arbeit erhalte ich den ersten von insgesamt siebzehn Anrufen, die ich heute erhalten werde. Er kommt vom Projektmanager, der entdeckt hat, dass unsere sorgfältig geplante Microservices-Architektur möglicherweise mehrere Dienste erfordert. Der Horror! Ich verbringe zwanzig Minuten damit, zu erklären, warum "einfach einen großen Dienst daraus zu machen" den Zweck der letzten Sechs-Monats-Planung zunichtemacht. Dieses Gespräch wird sich heute noch viermal mit verschiedenen Personen wiederholen, die offenbar an derselben Besprechung teilgenommen haben, aber völlig unterschiedliche Dinge gehört haben wollen.
Das Stand-up-Meeting beginnt pünktlich um 8:30 Uhr, was in Unternehmenszeit 8:47 Uhr bedeutet. Als Softwarearchitekt wird von mir erwartet, dass ich mystische Einblicke in jede technische Entscheidung habe, die seit Anbeginn der Zeit von jedem Teammitglied getroffen wurde. Zu den Höhepunkten des heutigen Tages gehören ein Entwickler, der drei Tage damit verbracht hat, eine Funktion zu implementieren, die bereits in unserer Standardbibliothek vorhanden ist, ein anderer, der überzeugt ist, dass das Hinzufügen weiterer Caching-Ebenen unsere Authentifizierungsprobleme lösen wird, und ein dritter, dem es irgendwie gelungen ist, eine zirkuläre Abhängigkeit zwischen Modulen zu schaffen, die nicht einmal wissen sollten, dass sie existieren.
Das Stand-up, das eigentlich fünfzehn Minuten dauern sollte, zieht sich auf fünfundvierzig Minuten hin, während wir uns intensiv mit den philosophischen Implikationen von Variablennamenskonventionen befassen. Ich schlage vor, diese Diskussion auf ein geeigneteres Forum zu verschieben, worauf sich alle einigen, wohl wissend, dass wir morgen genau dieselbe Unterhaltung führen werden.
Das erste offizielle Meeting des Tages trägt den Titel "Strategische Synergien für plattformübergreifende Integrationslösungen". Das eigentliche Thema, das nach fünfzehn Minuten der einstündigen Sitzung bekannt wird, ist die Frage, ob wir unser JavaScript-Framework aktualisieren sollten. Was eigentlich eine technische Entscheidung auf der Grundlage von Leistungskennzahlen, Sicherheitsupdates und Entwicklerproduktivität sein sollte, wird stattdessen zu einer philosophischen Debatte über das Wesen des Fortschritts selbst.
Der Marketingvertreter besteht darauf, dass unsere Entscheidung mit unserer "digitalen Transformation" im Einklang stehen muss, während der Compliance-Beauftragte sich über die rechtlichen Auswirkungen der Verwendung eines Frameworks sorgt, das möglicherweise Open-Source-Komponenten enthält. Währenddessen skizziere ich hektisch Systemdiagramme auf meinem Notizblock und versuche zu visualisieren, wie sich diese Entscheidung auf unsere siebzehn miteinander verbundenen Anwendungen auswirken wird.
Das Meeting endet mit der Bildung einer Taskforce, die die Bildung einer Arbeitsgruppe evaluieren soll, die schließlich die Einrichtung eines Ausschusses zur Untersuchung der Framework-Migration empfehlen wird. Ich melde mich freiwillig, diese Aufgabe zu übernehmen, da ich weiß, dass die Alternative darin besteht, dass jemand anderes technische Entscheidungen auf der Grundlage des schönsten Logos trifft.
Zwischen den Besprechungen beschäftige ich mich mit dem, was wir Architekten "Floor Radio" nennen – dem informellen Kommunikationsnetzwerk, das das Unternehmen tatsächlich am Laufen hält. Dazu gehört die strategische Positionierung in der Nähe der Kaffeemaschine, des Druckers und des Weges zum Badezimmer, wo echte Informationen wie digitale Pakete durch ein gut konzipiertes Netzwerk fließen.
Von Sarah aus der DevOps-Abteilung erfahre ich, dass die mysteriösen Datenbank-Performance-Probleme dadurch verursacht werden, dass jemand aus dem Analytics-Team Ad-hoc-Abfragen ausführt, die einen SQL-Server zum Weinen bringen würden. Von Mike aus der Qualitätssicherung erfahre ich, dass die vom Product Owner geforderten "kleinen UI-Anpassungen" tatsächlich eine Neugestaltung unserer gesamten Frontend-Architektur erfordern. Von Jennifer aus der Personalabteilung erfahre ich, dass die bevorstehende Umstrukturierung unser Entwicklungsteam auf drei verschiedene Kostenstellen aufteilen wird, die jeweils widersprüchliche Prioritäten und separate Budgets haben.
Diese fünfzehnminütige Kaffeepause liefert mehr verwertbare Informationen als das einstündige Meeting zuvor. Ich mache mir mentale Notizen, um diese Erkenntnisse in unseren Architekturentscheidungsprotokollen zu dokumentieren, vorausgesetzt, ich finde zwischen den verbleibenden vierzehn für heute geplanten Meetings noch Zeit dafür.
Ich werde zu einer Dringlichkeitssitzung der "Taskforce für digitale Exzellenz und Innovationsoptimierung" einberufen, einer Gruppe, die vor drei Wochen gegründet wurde, um ein Problem zu lösen, das bereits vor zwei Wochen gelöst wurde. Die Taskforce, bestehend aus zwölf Personen aus acht verschiedenen Abteilungen, hat eine 37-seitige PowerPoint-Präsentation darüber erstellt, warum wir eine Taskforce brauchen, um zu entscheiden, ob wir eine Taskforce brauchen.
Als einziger technischer Vertreter verbringe ich den größten Teil des Treffens damit, Aussagen wie "Wir müssen Cloud-native Lösungen nutzen, um unseren Data Lake für maschinelles Lernen und künstliche Intelligenz zu optimieren” in tatsächliche Anforderungen zu übersetzen, die von Menschen mit Hilfe bestehender Technologien umgesetzt werden können. Die Taskforce beschließt einstimmig, für die nächsten sechs Monate wöchentliche zweistündige Treffen anzusetzen, um "die technischen Auswirkungen unseres synergetischen Ansatzes für die digitale Transformation eingehend zu untersuchen”.
Ich schlage vor, dass wir vielleicht damit beginnen könnten, zu definieren, welches Problem wir eigentlich lösen wollen. Dieser radikale Vorschlag stößt auf besorgte Blicke und die Zusage, ihn "offline zu nehmen", um ihn von einem Unterausschuss weiter zu prüfen.
Das Mittagessen ist als "Arbeitsessen" mit dem Produktmanagement-Team geplant, um unsere Roadmap-Abstimmung zu besprechen. Das bedeutet in der Praxis, dass wir dreieckige Sandwiches essen, während wir uns detaillierte Erklärungen anhören, warum jede Funktion schon gestern fertiggestellt sein müsste, warum Abwärtskompatibilität sowohl unerlässlich als auch unmöglich ist und warum unsere sorgfältig geplanten Architekturmuster flexibel genug sein sollten, um alle brillanten Ideen zu berücksichtigen, die nächste Woche aus der Kundenfeedback-Sitzung hervorgehen.
Das Gespräch bringt ans Licht, dass unsere "stabile” API, die wir zwei Jahre lang entworfen und dokumentiert haben, komplett umstrukturiert werden muss, weil jemand aus dem Vertrieb einem Kunden versprochen hat, dass wir sie in sein Altsystem aus dem Jahr 1987 integrieren können. Ich verbringe den Rest der Mittagspause damit, Adaptermuster auf Servietten zu skizzieren und zu erklären, warum "einfach einen Endpunkt hinzufügen” nicht immer eine einfache Aufgabe ist.
Der Nachmittag beginnt mit einer Präsentation unserer neuen Unternehmensvision, die von einer Beratungsfirma ausgearbeitet wurde, die pro Wort mehr berechnet hat, als die meisten Entwickler pro Tag verdienen. Die Vision, deren Entwicklung drei Monate gedauert hat, lautet: "Ein kundenorientiertes, innovationsgetriebenes, digitalisiertes Unternehmen zu sein, das synergetische Lösungen nutzt, um durch exzellente Zusammenarbeit in unserem vernetzten globalen Markt nachhaltige Werte zu schaffen.”
Als Softwarearchitekt werde ich gebeten, zu erklären, wie unsere technische Strategie mit dieser Vision übereinstimmt. Ich verbringe zwanzig Minuten damit, ein komplexes Diagramm zu erstellen, das zeigt, wie unsere Microservices-Architektur "herausragende Zusammenarbeit" ermöglicht und wie unsere Datenpipeline "nachhaltige Wertschöpfung" unterstützt. In Wahrheit wurde unsere technische Strategie entwickelt, um tatsächliche Probleme für tatsächliche Nutzer zu lösen, aber anscheinend ist das für die moderne Unternehmenskommunikation nicht visionär genug.
Das Beste an der Vision ist, dass sie buchstäblich auf jedes Unternehmen in jeder Branche zutreffen könnte. Wir könnten Unternehmenssoftware, Frühstücksflocken oder Unterwasser-Korbgeflechtzubehör verkaufen, und die Vision wäre gleichermaßen zutreffend und gleichermaßen bedeutungslos.
An meinem nächsten Meeting nehmen alle Beteiligten unseres aktuellen Projekts teil: Entwickler, Produktverantwortliche, Designer, Tester, Marketingvertreter, Rechtsberater, Sicherheitsspezialisten und jemand aus dem Facility Management, der versehentlich die Einladung zum Meeting angenommen hat, aber zu höflich ist, um zu gehen. Als Softwarearchitekt fungiere ich als Universalübersetzer, der geschäftliche Anforderungen in technische Spezifikationen, technische Einschränkungen in Geschäftssprache und die Bedenken aller Beteiligten in umsetzbare Entwicklungsaufgaben umwandelt.
Das Marketingteam möchte wissen, warum wir es nicht einfach "schneller machen" können, ohne zu verstehen, dass die Leistungsoptimierung Kompromisse in Bezug auf Funktionalität, Kosten und Komplexität erfordert. Das Rechtsteam möchte eine detaillierte Dokumentation unserer Datenverarbeitungsverfahren, vorzugsweise in einer Sprache, die für jemanden verständlich ist, der Microsoft Word als fortschrittliche Technologie betrachtet. Das Sicherheitsteam möchte alles doppelt verschlüsseln und verlangt eine Zwei-Faktor-Authentifizierung für die Anzeige des Firmenlogos.
Unterdessen wollen die Entwickler wissen, warum sie das Ding nicht einfach bauen können, ohne an Besprechungen über den Bau des Dings teilzunehmen, und die Designer wollen wissen, warum es überhaupt technische Einschränkungen gibt, wenn diese eindeutig die Vision der Benutzererfahrung beeinträchtigen. Ich verbringe den größten Teil der Besprechung damit, Diagramme zu erstellen, die zeigen, wie all diese Anforderungen in einem Paralleluniversum koexistieren können, in dem die Gesetze der Physik flexibler sind.
Gerade als wir uns auf unseren Projektansatz einigen, kommt die Ankündigung: eine weitere Umstrukturierung des Unternehmens. Dies ist die vierte Umstrukturierung in zwei Jahren, die jeweils darauf abzielt, "die Effizienz zu verbessern und die Kommunikation zu optimieren”. In der Praxis bedeutet dies, dass alle Beziehungen, die wir aufgebaut haben, alle informellen Kommunikationskanäle, die wir eingerichtet haben, und das mühsam errungene Verständnis zwischen den Teams wie ein Kartenspiel neu gemischt werden.
Unser Entwicklungsteam, das derzeit nach Produktfunktionen organisiert ist, wird nach technischen Fähigkeiten neu organisiert. Das bedeutet, dass die Frontend-Entwickler einem Manager unterstellt sind, die Backend-Entwickler einem anderen und die Datenbankspezialisten einem dritten. Unsere sorgfältig zusammengestellten funktionsübergreifenden Teams, deren Zusammenwachsen zu effektiven Einheiten Monate gedauert hat, werden zugunsten funktionaler Silos aufgelöst, die formelle Besprechungen erfordern, um Arbeiten zu koordinieren, die mehrere technische Bereiche umfassen.
Als Softwarearchitekt werde ich gebeten, mich dazu zu äußern, wie sich diese Umstrukturierung auf unsere technische Architektur auswirken wird. Ich erkläre, dass Softwaresysteme dazu neigen, die Organisationsstruktur der Teams widerzuspiegeln, die sie entwickeln – ein Konzept, das als Conways Gesetz bekannt ist. Wenn wir unser einheitliches Team in separate Silos aufteilen, wird unsere einheitliche Architektur wahrscheinlich in unzusammenhängende Komponenten zerfallen, deren Wartung eine umfangreiche Koordination erfordert.
Diese Beobachtung wird vom Reorganisationskomitee zur Kenntnis genommen, das sie jedoch zweifellos ignorieren wird, um das Organigramm im Interesse einer einfacheren Budgetverteilung zu optimieren.
Trotz unserer digitalorientierten Kultur und unserer Remote-freundlichen Richtlinien findet ein Teil der produktivsten Arbeit immer noch statt, wenn die Menschen physisch im selben Raum sind. Ich verbringe dreißig Minuten damit, zwischen den Schreibtischen von drei verschiedenen Entwicklern hin und her zu gehen, mir den Code auf ihren Bildschirmen anzusehen, Lösungen auf Whiteboards zu skizzieren und schnelle technische Gespräche zu führen, die per E-Mail oder Chat Stunden dauern würden.
In diesen persönlichen Interaktionen lösen wir ein komplexes Integrationsproblem, das seit Wochen in unserem Backlog feststeckt. Die Lösung entsteht nicht aus formellen Dokumentationen oder strukturierten Besprechungen, sondern aus dem organischen Fluss von Ideen, der entsteht, wenn technische Köpfe in Echtzeit zusammenarbeiten. Wir können auf bestimmte Codezeilen zeigen, Pfeile zwischen Systemkomponenten zeichnen und auf den Gedanken des anderen aufbauen, ohne zwischen Anwendungen wechseln oder auf Antworten auf Nachrichten warten zu müssen.
Leider erfassen die neuen "Kollaborationseffizienzmetriken” des Unternehmens diese Art der Interaktion nicht. Unsere Produktivitätswerkzeuge können die Anzahl der festgeschriebenen Codezeilen, die abgeschlossenen Story Points und die Teilnahme an Besprechungen messen, aber sie können nicht den Wert eines Entwicklers quantifizieren, der sagt: "Was wäre, wenn wir einfach ...” und eine Lösung skizziert, die unsere gesamte Herangehensweise an ein Problem verändert.
Das letzte Meeting des Tages ist eine Statusaktualisierungssitzung, bei der jedes Team seinen Fortschritt einem Raum voller Menschen berichtet, die keinen Einfluss auf seine Arbeit haben. Als Softwarearchitekt präsentiere ich den Fortschritt unserer technischen Roadmap, wobei ich erkläre, warum komplexe Softwaresysteme nicht mit denselben Metriken verfolgt werden können, die für die Herstellung von Widgets verwendet werden.
Ich berichte, dass die Umgestaltung unseres Authentifizierungsdienstes zu "75 Prozent abgeschlossen" ist, was sowohl völlig korrekt als auch völlig bedeutungslos ist. Die restlichen 25 % umfassen Integrationstests, Sicherheits-Validierung, Leistungsoptimierung, Dokumentation und die Bearbeitung aller Randfälle, die in der ersten Entwurfsphase nicht offensichtlich waren. In der Softwareentwicklung bedeutet dies, dass wir etwa zur Hälfte fertig sind, aber um dies zu erklären, wäre eine 40-minütige Präsentation über die Natur der Komplexität von Software erforderlich.
Der Projektmanager fragt, ob wir den Zeitplan beschleunigen können, indem wir mehr Entwickler in das Team aufnehmen. Ich widerstehe dem Drang, Brooks' Gesetz zu zitieren, wonach die Hinzunahme von Mitarbeitern zu einem verspäteten Softwareprojekt dieses noch weiter verzögert, und schlage stattdessen vor, ein separates Meeting zu vereinbaren, um Strategien zur Ressourcenzuteilung zu besprechen.
Auf der Heimfahrt denke ich über die evolutionäre Natur der Softwarearchitektur nach. Trotz aller Meetings, Taskforces, Umstrukturierungen und Visionen entwickeln sich Softwaresysteme weiter und passen sich an. Sie werden komplexer, entwickeln unerwartete Verhaltensweisen und finden Wege, selbst die wohlmeinendsten Managementinterventionen zu überstehen.
Die von uns entwickelten Systeme sind wie digitale Organismen, die von der Umgebung geprägt sind, in der sie sich entwickeln. Sie passen sich den Einschränkungen ihrer Hosting-Infrastruktur, den Mustern ihrer Nutzer und den Organisationsstrukturen ihrer Entwickler an. Keine noch so umfangreiche strategische Unternehmensplanung kann diese Entwicklung vollständig kontrollieren, was vielleicht der Grund dafür ist, dass Softwarearchitektur nach wie vor ebenso sehr Kunst wie Wissenschaft ist.
Zu Hause gehe ich die Erfolge des Tages durch. Obwohl ich an sieben Besprechungen teilgenommen, in zwei Arbeitsgruppen mitgewirkt und eine Ankündigung zur Umstrukturierung der Organisation über mich ergehen lassen musste, haben wir tatsächlich bedeutende Fortschritte bei unseren Softwaresystemen erzielt. Die Refaktorisierung der Authentifizierung wurde vorangetrieben, die Probleme mit der Datenbankleistung wurden identifiziert und die Integrationsprobleme wurden durch gemeinsame Problemlösungen gelöst.
Das Paradoxon der Softwarearchitekturarbeit besteht darin, dass die wichtigsten Aktivitäten oft am Rande der offiziellen Prozesse stattfinden. Echte architektonische Entscheidungen entstehen aus kurzen Gesprächen, informeller Zusammenarbeit und der gesammelten Erfahrung von Teams, die über einen längeren Zeitraum zusammenarbeiten. Die formalen Strukturen, Prozesse und Governance-Rahmenbedingungen sorgen für die notwendige Aufsicht und Abstimmung, aber sie erfassen selten die volle Komplexität der tatsächlichen Entwicklung von Softwaresystemen.
Morgen gibt es neue Meetings über Meetings, neue Taskforces zur Bewertung bestehender Taskforces, aktualisierte Vision Statements, die mit anderen Schlagworten dasselbe aussagen, und eine weitere Runde der organisatorischen Umstrukturierung, um die durch die vorherige Umstrukturierung entstandenen Probleme zu beheben.
Aber es wird auch Gelegenheiten bieten, interessante technische Probleme zu lösen, Teams bei der Entwicklung besserer Software zu unterstützen und die Lücke zwischen geschäftlichen Träumen und technischer Realität zu schließen. Die Aufgabe eines Softwarearchitekten besteht letztendlich darin, Ordnung im Chaos zu finden, Klarheit aus Verwirrung zu schaffen und Systeme zu entwickeln, die trotz der organisatorischen Turbulenzen, die sie umgeben, funktionieren.
Die Meetings werden weiterhin größtenteils unnötig sein, die Taskforces werden sich weiterhin über alle Maßen vermehren und die Vision Statements werden weiterhin neue Höhen abstrakter Bedeutungslosigkeit erreichen. Aber die Software wird entwickelt, die Probleme werden gelöst und die Systeme werden sich weiterentwickeln.
Und irgendwo zwischen den Meetings und den Taskforces wird echte Arbeit geleistet, werden echte Probleme gelöst und wird echter Wert geschaffen. Denn trotz aller gegenteiligen Beweise gelingt es Unternehmen gelegentlich, nützliche Softwaresysteme zu entwickeln, in der Regel durch den engagierten Einsatz von Menschen, die gelernt haben, sich im Unternehmensdschungel zurechtzufinden und sich dabei auf das Wesentliche zu konzentrieren.
Der Tag endet so, wie er begonnen hat: mit einem kurzen Blick auf die nächtlichen Benachrichtigungen, einer mentalen Notiz, die informellen Gespräche weiterzuverfolgen, die die wirklichen Probleme offenbart haben, und der stillen Entschlossenheit, morgen alles wieder zu tun, hoffentlich mit etwas weniger Unternehmensdrama und etwas mehr tatsächlicher Problemlösung.
Schließlich muss jemand die digitale Welt am Laufen halten, eine unnötige Besprechung nach der anderen.
Als Softwarearchitekt habe ich mehrere Umstrukturierungen, unzählige Taskforces und etwa 47.000 Stunden an Besprechungen überstanden, die auch per E-Mail hätten abgewickelt werden können. Ich praktiziere weiterhin die alte Kunst, Geschäftsanforderungen in funktionierende Software umzusetzen, trotz aller Bemühungen des Unternehmens, dies zu verhindern.
URL dieses Artikels:
https://www.heise.de/-10283764
Links in diesem Artikel:
[1] mailto:rme@ix.de
Copyright © 2025 Heise Medien

Mittels eines Exploits hat der Entwickler Duy Tran Funktionen von iPadOS 26 auf einem iPhone mit iOS 26 aktiviert. Das gelang ihm durch die Modifikation der Datei MobileGestalt.Plist, die verschiedene Geräteinformationen beinhaltet – unter anderem die Geräte-ID und das Modell.
Wie iDevice Central berichtet , kann die Datei mittels zweier Malware-Dateien bearbeitet werden. Eigentlich ist sie verschlüsselt, Entwickler entschlüsselten in den vergangenen Jahren aber Teile davon. Über die Bearbeitung von Teilen der MobileGestalt-Datei wurden in den letzten Jahren bereits andere Exploits entwickelt.
In einem Video auf X zeigt Tran, was mit dem neuen Exploit möglich ist. So gibt es beispielsweise die Taskbar aus iPadOS, die über einen Wisch ins Display angezeigt werden kann. Auch lassen sich Apps in einzelnen Fenstern darstellen, wie es unter iPadOS 26 möglich ist – also unabhängig vom Stage Manager.
Der Exploit ist mit iOS 26.1 und iOS 26.2 Beta 1 möglich. Tran ist sich relativ sicher, dass Apple die Möglichkeit der Modifikation mit der nächsten Beta beseitigen wird – die iPad-OS-Funktionen auf dem iPhone könnten also nur von kurzer Dauer sein.
Der Exploit ist nicht trivial, wie die Anleitung bei iDevice Central zeigt. Nutzer sollten sich mit Python auskennen und grundsätzlich wissen, was sie tun. In der Anleitung werden auch die notwendigen Schlüssel beschrieben, die geändert werden müssen.
Ob dieser Aufwand es wert ist, müssen Nutzer für sich entscheiden. Im Video sieht etwa die Verwendung mehrerer Fenster auf dem iPhone eher unübersichtlich aus; ob es die Taskleiste des iPads auf dem iPhone braucht, ist ebenfalls fraglich.

SAP-Kunden aus sicherheitsrelevanten Bereichen hätten veränderte Anforderungen. Sie wollten in dem geopolitischen Umfeld Software und KI nutzen, die in Europa entwickelt und im Stack von SAP eingebettet sei.
Das sagte Konzernchef Christian Klein am 18. November 2025 beim Europäischen Souveränitätsgipfel in Berlin. Klein betonte: "Wenn wir es in Europa in einer der großen Gigafactories speichern können, dann ist das sogar noch besser."
Zuvor hatte sich Klein gegen den Bau von Gigafactories ausgesprochen . Die Welt habe sich in den vergangenen drei Jahren stark verändert, nun sei laut Klein die erste Frage der Kunden: "Wo werden meine Daten gespeichert?"
Darum sei die Partnerschaft mit dem französisches Technologieunternehmen Mistral AI so wichtig, das LLMs entwickelt. Arthur Mensch, Mitbegründer und Chief Executive Officer von Mistral, trat zusammen mit Klein auf dem Podium auf und kündigte für den heutigen Tag die Bekanntgabe einer erweiterten Partnerschaft an.
Europa habe Zukunft, solle aber " nicht einfach kopieren, was die USA und China machen" , schränkte Klein ein. "Wir haben unsere eigenen Stränge und eigenen Industrien, wo wir gut sind. Lasst uns KI dort implementieren."
SAP setzt selbst stark auf die US-amerikanischen Hyperscaler Amazon Web Services (AWS), Microsoft Azure und Google Cloud Platform (GCP) als Basis für den Betrieb seiner Unternehmenssoftware. Der Softwarekonzern nutzt die Hyperscaler als primäre Plattformen für Kunden, die Cloudlösungen einsetzen.
Mit Delos Cloud biete SAP die Möglichkeit, Daten vollkommen abgeschottet in Europa zu speichern und zu verarbeiten, sagte Klein am 3. Juli 2025. Delos Cloud ist ein Tochterunternehmen von SAP, arbeitet aber auf Basis von Microsoft Azure und Microsoft 365.
Mit Delos Cloud bietet SAP die Möglichkeit, Daten in Europa zu speichern und zu verarbeiten, was dennoch keine vollständige Sicherheit vor Zugriffen aus den USA garantieren kann.
Klein sagte deshalb auf dem Souveränitätsgipfel: "Natürlich müssen die Daten geschützt werden. Wo sind meine Daten gespeichert. Aber das alles nützt nichts, wenn dein Unternehmen nicht mehr existiert. Man muss nach vorne gehen, neue Technologie einsetzen."

Congstar startet am 20. November 2025 mit der Aktion Null Stress Friday. Die Telekom-Tochter bietet bis zum 4. Dezember bei Postpaid und Prepaid-Tarifen besondere Konditionen. Bestandskunden können diese Aktionstarife bereits ab dem 18. November über die App des Mobilfunkdiscounters buchen.
Der Postpaid-Tarif Allnet Flat S beinhaltet ein Datenvolumen von 50 statt 30 GByte für 19 Euro pro Monat. Bei den Tarifen Allnet Flat M mit 100 GByte für 24 Euro monatlich und Flat L mit 150 GByte für 29 Euro monatlich bleibt das Inklusivvolumen unverändert. Hier führt Congstar den Relaxpass ein.
Wer den Tarif Flat M oder L im Aktionszeitraum bucht, kann ab einem Verbrauch von 80 Prozent des Datenvolumens (zum Beispiel nach 120 GByte bei der Flat L) den Relaxpass über die Congstar App oder auf datapass.de buchen und erhält daraufhin ein weiteres Mal 150 GByte zum mobilen Surfen.
Bei den Prepaid-Tarifen erhöht der Discounter während der Aktion das Inklusivvolumen ohne Aufpreis. Die Prepaid Allnet M beinhaltet 30 statt 20 GByte für eine vierwöchige Gebühr von 10 Euro. Die Allnet L bietet 40 statt 30 GByte, hier fallen 12 Euro für vier Wochen an. Beim Tarif Prepaid Allnet XL steigt das Datenvolumen von 40 auf 50 GByte, die Grundgebühr für vier Wochen beträgt 16 Euro.
Der Relaxpass verdeutlicht es: Congstar setzt auf Datenpakte statt auf unlimitierte Tarife. Dies zeigen auch die überarbeiteten Prepaid-Tarife von Ja Mobil und Penny Mobil , Congstar ist hier der technische Leistungserbringer der Tarife.
Bei den Mobilfunkdiscountern der Rewe Gruppe können Kunden ab Mitte Dezember 2025 ein Datenpolster mit 25 GByte buchen, das sich immer dann nutzen lässt, wenn das Inklusivvolumen für den Zeitraum von vier Wochen verbraucht ist.
In der Pressemitteilung von Congstar heißt es: "Das Datenpolster von Ja Mobil und Penny Mobil ist somit eine transparente und attraktive Alternative zu Unlimited-on-Demand-Tarifen, die häufig Verständnisfragen aufwerfen und von den Kund*innen ein aktives Buchungsverhalten erfordern."
Auch der Relaxpass folgt dieser Logik. Kunden erhalten nach dem Verbrauch des regulären Inklusivvolumens zusätzliches Datenvolumen, unbegrenztes Surfen ist jedoch nicht möglich. Verbraucher dürften von Congstar somit keine Einführung unlimitierten Tarife erwarten.
Alle Details zur Störungsmeldung ansehen Eigene Internetstörung melden
Alle Details zur Störungsmeldung ansehen Eigene Internetstörung melden
(Bild: Andy.LIU/Shutterstock.com)
Die Cybersicherheitsbehörden Frankreichs und Deutschlands wollen Sicherheitsstandards für Cloud-Umgebungen gemeinsam weiterentwickeln – nicht zum ersten Mal.
Die Agence Nationale de la Sécurité des Systèmes d'Information (ANSSI) und das deutsche Bundesamt für Sicherheit in der Informationstechnik (BSI) haben sich auf eine enge Zusammenarbeit bei Cloud-Sicherheitskriterien verständigt. Die Kooperation zweier wichtiger europäischer Akteure soll einen Tag vor dem deutsch-französischen Digitalgipfel ein Aufbruchsignal sein: Bei erhöhtem Sicherheitsbedarf soll künftig grenzüberschreitend gedacht werden.
"Wir müssen einen unterbrechungsfreien Betrieb und eine effektive Kontrolle über unsere sensiblen Daten in den Clouds sicherstellen", sagt BSI-Präsidentin Claudia Plattner. Frankreich und Deutschland gehe es darum, "Hand in Hand die Risiken zu adressieren, die durch extraterritoriales Recht oder Abhängigkeiten entstehen", ergänzt ANSSI-Generaldirektor Vincent Strubel.
Europäische Cloudanbieter stehen bislang vor dem Problem, dass jeder der 27 EU-Nationalstaaten für Remoteanwendungen und Speicher jeweils eigene Vorgaben für "sichere Clouds" hat, für die oft auch einzeln Zertifizierungen und Sicherheitsüberprüfungen durchgeführt werden müssen.
Mit dem von der EU-Kommission angekündigten "Cloud Sovereignty Framework" [1] soll sich das grundsätzlich ändern. Darauf wollen die beiden Cybersicherheitsbehörden in Bonn und Paris nun aufbauen. Ziel sei es, kompatible Kriterien und Methoden zu deren Einhaltung zu entwickeln.
ANSSI treibt seit 2016 das an die ISO 270001-Norm angelehnte SecNumCloud-Framework [2] voran. Auch das BSI arbeitet an Cloud-Mindeststandards [3], derzeit sind die sogenannten C5-Kriterienkataloge [4] die Vorgaben der Bonner IT-Sicherheitsspezialisten.
Angesichts stark steigender Nachfrage seitens geheimschutzbedürftiger Stellen hatte Plattner zuletzt grundsätzliche Überlegungen veröffentlicht, wie Daten mit einem geringeren Schutzniveau auch in der US-Cloud [5] gespeichert werden könnten. Dafür musste die BSI-Präsidentin aus Teilen der europäischen Open-Source-Community einige Kritik einstecken [6]. Die gemeinsame Erklärung von BSI und ANSSI enthält nun ein klares Bekenntnis zu europäischen Stakeholdern und Open Source-Technologien.
Zögen die beiden Schwergewichte unter den EU-Cybersicherheitsbehörden aber tatsächlich dauerhaft an einem Strang, könnten sie gleich zwei Probleme adressieren: zum einen, dass die Kosten für Anbieter – und in der Folge die Preise für Anwender – durch die Vielzahl der nationalen Vorschriften hoch sind. Zum anderen, dass hierdurch auch das Betreiben von Rechenzentren nach nationalen Vorschriften im EU-Ausland vereinfacht wird.
Allerdings ist die Idee, gemeinsam an den Kriterien für sichere Cloudumgebungen zu arbeiten, nicht ganz neu: Vor neun Jahren wollten der damalige BSI-Präsident Arne Schönbohm und sein französischer Counterpart Guilaume Poupard bereits ein Label für eine "European Secure Cloud" entwickeln, als Zeichen der guten deutsch-französischen Digitalkooperation [7]. Und auch dieses Mal heißt es in der gemeinsamen Erklärung der beiden Seiten an relevanter Stelle: Das gemeinsame Vorgehen solle stattfinden, "wo möglich".
URL dieses Artikels:
https://www.heise.de/-11082116
Links in diesem Artikel:
[1] https://www.heise.de/news/Cloud-Sovereignty-Framework-So-will-die-EU-die-Cloud-Souveraenitaet-bewerten-10920218.html
[2] https://cyber.gouv.fr/secnumcloud-pour-les-fournisseurs-de-services-cloud
[3] https://www.bsi.bund.de/SharedDocs/Downloads/EN/BSI/Publications/CloudComputing/SecurityRecommendationsCloudComputingProviders.pdf?__blob=publicationFile&v=1
[4] https://www.bsi.bund.de/EN/Themen/Unternehmen-und-Organisationen/Informationen-und-Empfehlungen/Empfehlungen-nach-Angriffszielen/Cloud-Computing/Kriterienkatalog-C5/kriterienkatalog-c5_node.html
[5] https://www.heise.de/news/Digitale-Abhaengigkeit-Plattner-betont-Umweg-zu-Souveraenitaet-10617389.html
[6] https://www.heise.de/news/Open-Source-Anbieter-BSI-saet-Verunsicherung-in-Politik-und-Wirtschaft-10621689.html
[7] https://www.heise.de/news/Deutsch-franzoesisches-Digitaltandem-Mehr-Geld-fuer-Startups-und-eine-sichere-Cloud-3569384.html
[8] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[9] mailto:vbr@heise.de
Copyright © 2025 Heise Medien
Die 66. Ausgabe der Top500-Liste der Supercomputer führt den Jülicher "JUPITER Booster" nun mit genau 1 Trillion FP64-Gleitkommaberechnungen pro Sekunde.
Ziel erreicht: Der Supercomputer Jupiter Booster am Forschungszentrum Jülich hat nun seine geplante Rechenleistung von 1 Trillion FP64-Gleitkommaberechnungen pro Sekunde erreicht. Damit ist und bleibt er der schnellste europäische Computer.
Er hielt zudem seinen Rang 4 auf der 66. Ausgabe der Top500-Liste der Supercomputer. Sie wurde auf der International Conference for High Performance Computing, Networking, Storage and Analysis (SC'25) in St. Louis veröffentlicht.
Jupiter Booster debütierte im Juni auf der 65. Top500-Liste [1] mit 0,793 Exaflops/s (EFlops). Seither haben die Experten in Jülich noch weitere Module in Betrieb genommen und das System optimiert. Mit 63,3 Milliarden Flops pro Watt aufgenommener Leistung (63,3 GFlops/W) stieg auch die energetische Effizienz um 4,5 Prozent an.
Auch einige andere der besten zehn Supercomputer der neuesten Top500-Liste wurden optimiert. Die ersten 14 Plätze der Rangliste belegen aber dieselben Systeme wie im Juni. Erst dahinter gibt es einige kleinere Verschiebungen und auch mehrere Neuzugänge, aber im Leistungsbereich unter 140 Petaflops/s (0,14 EFlops).
Außerdem gibt es einen neuen Spitzenreiter auf der Green500-Liste der effizientesten Supercomputer, den KAIROS an der Uni Toulouse. Der ist ebenso wie Jupiter Booster eine Maschine vom Typ Bull Sequana XH3000 des französischen Herstellers Eviden (ehemals Atos), aber mit einem Bruchteil der Performance (3,046 PFlops, Top500-Rang 422). Dafür arbeitet sie aber mit 73,28 GFlops/W um knapp 16 Prozent effizienter.
In der 66. Top500-Liste stehen 45 neue Supercomputer, davon 12 aus den USA, 7 aus Japan, 6 aus Kanada und drei in Deutschland. Der stärkste leistet 135,4 PFlops, der schwächste 2,91 PFlops. Zusammen steigern sie die aggregierte Rechenleistung der aktuellen Top500-Liste um fast genau 1 EFlops. Damit fällt der Leistungszuwachs der 66. Top500-Liste relativ schwach aus.
Die Hälfte der Top-Ten-Supercomputer der 66. Top500-Liste steht in Europa: Zwei in Italien und je einer in Deutschland, der Schweiz und Finnland. Die absolut meiste Supercomputer-Rechenleistung steht jedoch in den USA. Allerdings beteiligt sich China schon seit mehreren Jahren nicht mehr am Top500-Wettstreit.
Auch angesichts des enormen Wachstums von KI-Rechenzentren [2] verblasst die Aussagekraft der Top500-Liste allmählich. Die KI-Boliden sind aber für andere Algorithmen optimiert als die meisten Top500-Systeme, eben für KI. Dabei rechnen sie meistens mit kompakteren und für KI optimierten Zahlenformaten, beim Training beispielsweise mit TF32- oder bFloat16-Werten, beim Inferencing mit einstelliger Bitzahl im Ganzzahlformat (Integer). Die Angaben zur KI-Rechenleistung sind daher nicht mit denen aus der Top500-Liste vergleichbar.
Die Top500-Liste berücksichtigt ausschließlich die Ergebnisse des Benchmarks High Performance LINPACK bei der Verarbeitung "doppelt genauer" Gleitkommazahlen (Dual Precision/DP, FP64). 128 Top500-Systeme durchliefen zusätzlich den Benchmark High Performance Conjugate Gradients (HPCG) für andere wissenschaftliche Aufgaben. Viele der neueren Top500-Systeme sind auch für den Einsatz von KI-Software ausgelegt.
| 66. Top500-Liste der Supercomputer (November 2025): Top 10 | ||||||
| Rang | Name | Land | CPU-Typ | Beschleuniger | RMax* | Effizienz |
| 1 | El Capitan | USA | MI300A | AMD MI300A | 1809 PFlops | 60,9 GFlops/W |
| 2 | Frontier | USA | Epyc | AMD MI250X | 1353 PFlops | 55,0 GFlops/W |
| 3 | Aurora | USA | Xeon | Xeon GPU Max | 1012 PFlops | 26,2 GFlops/W |
| 4 | Jupiter Booster | Deutschland | GH200 | Nvidia GH200 | 1000 PFlops | 63,3 GFlops/W |
| 5 | Eagle (MS Azure) | USA | Xeon | Nvidia H100 | 561 PFlops | k.A. |
| 6 | Eni HPC6 | Italien | Epyc | AMD Instinct MI | 478 PFlops | 56,5 GFlops/W |
| 7 | Fugaku | Japan | A64FX | – | 442 PFlops | 14,8 GFlops/W |
| 8 | Alps | Schweiz | GH200 | Nvidia GH200 | 435 PFlops | 61,1 GFlops/W |
| 9 | LUMI | Finnland | Epyc | Instinct MI 250X | 380 PFlops | 53,4 GFlops/W |
| 10 | Leonardo | Italien | Xeon | Nvidia A100 | 241 PFlops | 32,2 GFlops/W |
| *RMax ist die per Linpack gemessene Gleitkomma-Rechenleistung (FP64) | ||||||
URL dieses Artikels:
https://www.heise.de/-11082016
Links in diesem Artikel:
[1] https://www.heise.de/news/Jupiter-Booster-Beinahe-der-erste-Exascale-Supercomputer-Europas-10438385.html
[2] https://www.heise.de/news/Microsoft-zeigt-das-leistungsstaerkste-Rechenzentrum-der-Welt-10663057.html
[3] https://www.heise.de/ct
[4] mailto:ciw@ct.de
Copyright © 2025 Heise Medien
In Workshops können Interessierte die unterschiedlichen Möglichkeiten des 3D-Holzdrucks bei der Initiative Denkstatt Erzgebirge ausprobieren.
(Bild: Denkstatt Erzgebirge)
Holzabfälle eignen sich hervorragend als Basis für 3D-Filamente, aus denen viele nützliche Dinge bis hin zu umweltfreundlichen Holzmöbeln entstehen können.
Der 3D-Druck verändert zahlreiche Branchen grundlegend, und die Möbelbranche profitiert besonders von Holzpotenzial als umweltfreundlichem und optisch ansprechendem Material. Eine neue Methode, um Holzabfälle für den 3D-Druck zu nutzen, kommt aus Israel. Forscher der Hebrew University of Jerusalem haben ein Verfahren entwickelt, um aus Holzspänen 3D-Filament zu produzieren.
Das Forschungsteam um Doron Kam sammelte Holzreste aus der Möbel- oder Baubranche und trocknete diese gründlich, um den Wassergehalt zu minimieren. Danach mahlten sie die Partikel zu feinem Pulver und mischten das Holzpulver mit organischen Klebstoffen wie Lignin oder Naturharzen. So entsteht ein stabiles Filament für FDM-Drucker (Fused Deposition Modeling). Anschließend druckten sie mit einem 3D-Drucker damit Bänder. Aus diesen Bändern formten sie eine meterhohe Schale durch Anordnung der Bänder in engen Kreisverläufen.
Frühere Studien zum 3D-Druck mit Holz offenbarten dabei eine Eigenart des Materials. Es krümmt sich und schrumpft beim Trocknen. Dadurch wölben sich die Ränder eines gedruckten Kreises nach oben, statt die Rundung zu erhalten. Kam und sein Team nutzten diese Eigenschaft nun zur Verbesserung des Druckprozesses. Anstelle rechteckiger Formen verwendete das Team Spiralformen und konzentrische Kreise zum Ausdruck, was die Festigkeit erhöhte.
Wie das Branchenportal 3DActivation [1] berichtete, gelang der Durchbruch durch Anpassung der Druckgeschwindigkeit in Verbindung mit der Ausrichtung und individuellen Trocknung von 3D-gedruckten spiralförmigen Helix-Streifen. "Ziel ist es, das Verfahren zu perfektionieren, um eines Tages beliebige Holzabfälle oder auch Äste zu zerkleinern und als Basismaterial mittels 3D-Druck dann für die Herstellung von Holzprodukten und Möbeln nutzen zu können", so das Forschungsteam.
Andere Wege geht ein Forscherteam aus dem Erzgebirge, wo traditionell Holzspielzeug, Nussknacker, Räucherfiguren sowie Möbel und Halbzeuge aus Holz seit Generationen gefertigt werden. Bei den unterschiedlichen Verfahren für den 3D-Druck ist für Holz besonders die Werkstoffextrusion im Liquid-Deposition-Modeling-Verfahren (LDM) interessant. Ein Forschungsteam um Dr.-Ing. Michael Rosenthal von der TU Dresden nutzt das LDM-Verfahren zur Herstellung von Holzprodukten über 3D-Drucker. Michael Rosenthal und sein Team ahmen bei dem Verfahren die Arbeitsweise von Wespen nach, die Holzbrei für Nester formen.
Dabei besteht das Material zu 90 Prozent aus Holzresten wie Spänen und Staub. Teammitglieder mischten es mit Bindern wie Stärke oder Celluloseether in Wasser. Sie passten die Eigenschaften an und reduzierten das Schrumpfen, wobei sich die Festigkeit steigern ließ. Das entstandene Material klebt gut, erlaubt Schrauben mit halber Spanplattenfestigkeit bei einer Druckfestigkeit von bis zu 8 MPa (Mega Pascal) und hält Klammern sicher. Als gedruckte Beispiele präsentieren die Forscher etwa Schmuckschatullen mit gedrechseltem Deckel und gedruckte Dosen aus Abfallspänen. Teammitglied Stefan Beyer formte im Workshop sogar Gitarrenkörper über den 3D-Drucker.
Weitere Infos zum Verfahren [2] sowie Termine zu Workshops zum 3D-Druck von Holzgegenständen bietet die Initiative Denkstatt Erzgebirge [3] auf der Webseite.
URL dieses Artikels:
https://www.heise.de/-11081195
Links in diesem Artikel:
[1] https://www.3d-activation.de/der-3d-druck-blog/von-holzspaenen-zum-3d-druck-von-holzmoebeln/
[2] https://www.denkstatt-erzgebirge.de/_files/ugd/f2a303_db2c71c179fc4e99accd199c28183585.pdf
[3] https://www.denkstatt-erzgebirge.de/
[4] https://www.heise.de/make
[5] mailto:usz@heise.de
Copyright © 2025 Heise Medien
(Bild: sdx15/Shutterstock.com)
Die Kurznachrichtenplattform X hat ihren Messenger überarbeitet. Die neue Version bietet neue Features, die von Mitbewerbern bekannt sind.
Das soziale Netzwerk X hat seinen integrierten Messenger unter dem neuen Namen Chat [1] überarbeitet und erweitert. X Chat enthält damit neue Funktionen, die bereits von Mitbewerbern bekannt sind. Dazu zählen Nachrichten, die von selbst wieder verschwinden, die Unterstützung für Video- und Audiotelefonie sowie das Teilen von Dateien.
X Chat ist zunächst für iOS und in der Browserversion verfügbar. Eine Android-Version soll laut des Unternehmens von Elon Musk bald folgen.
Nutzer können in X Chat auch unterbinden, dass Bildschirmfotos von ihren Gesprächen Fotos gemacht werden. Wahlweise ist es auch möglich, sich nur benachrichtigen zu lassen, wenn die andere Seite Bildschirmfotos anfertigt. Alte Nachrichten werden automatisch in Chat übernommen und angezeigt.
Mit dem Update hält auch die Verschlüsselung wieder Einzug, wenngleich diese nur für die Nachrichteninhalte selbst und mitgeschickte Dateien gilt – nicht aber für die Metadaten der Gespräche. X spricht zwar von Ende-zu-Ende-Verschlüsselung. Dagegen spricht allerdings, dass die privaten Schlüssel auf den Servern von X gespeichert werden und X somit Zugriff auf die Schlüssel hat. In dem Support-Dokument [2] wird eingeräumt, dass Man-in-the-middle-Attacken möglich sind. Bei echter E2E-Verschlüsselung verbleiben die privaten Schlüssel auf dem Gerät.
Es gibt auch keine Forward Secrecy. Das heißt: Wurde ein privater Schlüssel kompromittiert, sind alle jemals gesendeten und empfangenen Nachrichten lesbar. X kündigte an, hier noch nachbessern zu wollen. Vor seiner Umbenennung in X bot Twitter im Jahr 2023 bereits einmal verschlüsselte Direktnachrichten an. Im Mai 2025 wurde diese Möglichkeit zurückgezogen, damals schon mit Hinweis auf bevorstehende Verbesserungen.
URL dieses Artikels:
https://www.heise.de/-11082028
Links in diesem Artikel:
[1] https://x.com/chat/status/1989465741444485180
[2] https://help.x.com/en/using-x/encrypted-direct-messages
[3] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[4] mailto:mki@heise.de
Copyright © 2025 Heise Medien
Bernd Müller
(Bild: Mulad Images / Shutterstock.com)
Italien plant eine Steueramnestie: Wer geerbtes Gold ohne Nachweis meldet, zahlt nur 12,5 statt 26 Prozent – und kann künftig legal verkaufen.
Gold ist begehrt – und weil das Edelmetall von vielen als Wertanlage gesehen wird, weckt es auch Begehrlichkeiten der Regierungen. So etwa in Italien, wo die Regierung unter Ministerpräsidentin Giorgia Meloni nach neuen Einnahmequellen für die Staatskasse sucht.
Abgeordnete der Regierungskoalition haben vorgeschlagen, dass Besitzer von undokumentierten Goldmünzen, Schmuck und Barren ihre Bestände deklarieren und darauf eine Steuer [1]von 12,5 Prozent zahlen sollen, berichtet die [2] Financial Times (FT).
Das Vorhaben könnte dem Staat bis zu zwei Milliarden Euro einbringen, so die Hoffnung. Denn viele italienische Familien besitzen kleine Goldbestände, für die es keine Herkunftsnachweise gibt.
Oft wurde das Edelmetall von Eltern und Großeltern vererbt, die es traditionell als sicherer als die Lira betrachteten – Italiens Währung vor dem Euro.
Nach den geltenden Vorschriften müssen Italiener ohne Kaufnachweis eine Steuer von 26 Prozent auf den Gesamtwert zahlen, wenn sie ihr Gold über legale Kanäle verkaufen wollen. Das macht den Verkauf unattraktiv und hält viele davon ab, ihre Bestände zu monetarisieren.
Senator Dario Damiani von Forza Italia, ein Befürworter des Vorhabens, erklärte laut FT, das Programm ziele darauf ab, "die Monetarisierung des Goldbestands der Italiener zu fördern". Das Finanzministerium zeigte sich jedoch skeptisch, ob tatsächlich zwei Milliarden Euro eingenommen werden könnten.
Der Vorschlag kommt zu einem Zeitpunkt, an dem die Koalitionsparteien über andere Maßnahmen zur Einnahmenerhöhung im Haushaltsentwurf streiten. Kritiker sehen darin eine verzweifelte Suche nach Mitteln, um unpopuläre Maßnahmen zu streichen und Steuersenkungen für die Mittelschicht zu finanzieren.
Die Attraktivität von Gold [3] als Vermögenswert ist kein italienisches Phänomen. Seit Jahrhunderten gilt das Edelmetall in Zeiten politischer und wirtschaftlicher Unsicherheit als bevorzugter sicherer Hafen.
Sein Status als zuverlässiger hochwertiger Rohstoff, der leicht transportiert und überall verkauft werden kann, vermittelt ein Gefühl der Sicherheit.
Gold dient zudem als Absicherung gegen Inflation [4], wenn die Kaufkraft von Währungen sinkt. In einem Niedrigzinsumfeld wird das Edelmetall besonders attraktiv, da die Opportunitätskosten für das Halten von Gold im Vergleich zu verzinslichen Anlagen sinken.
Das Metall wirft selbst keine Zinsen ab, aber wenn auch andere Anlagen kaum Erträge bringen, relativiert sich dieser Nachteil.
Der Goldpreis hat in diesem Jahr immer neue Rekorde aufgestellt und die Marke von 4.300 US-Dollar pro Feinunze durchbrochen. Investoren [5]suchen angesichts globaler Handelskonflikte [6], steigender Staatsschulden und politischer Unsicherheiten Zuflucht in dem Edelmetall.
Nicht nur Privatanleger setzen auf Gold. Auch Zentralbanken, insbesondere in Schwellenländern, haben ihre Goldreserven massiv aufgestockt. Sie wollen damit ihre Abhängigkeit vom US-Dollar verringern und ihre Devisenreserven diversifizieren. Gold schützt zudem vor Währungsabwertungen.
Die Zentralbanken sind seit 15 Jahren Netto-Käufer von Gold, doch die Geschwindigkeit ihrer Käufe hat sich nach dem Einmarsch Russlands in die Ukraine verdoppelt. Als die USA und ihre Verbündeten die in ihren Ländern gehaltenen Gelder der russischen Zentralbank einfroren, wurde deutlich, wie anfällig Fremdwährungsaktiva für Sanktionen [7]sind.
Im Jahr 2024 kauften die Zentralbanken laut World Gold Council zum dritten Mal in Folge mehr als 1.000 Tonnen Goldbarren, heißt es bei Bloomberg. Sie halten damit etwa ein Fünftel des gesamten jemals geförderten Goldes.
Zu den aktivsten Käufern gehören Länder, die nicht Teil des Bretton-Woods-Systems nach dem Zweiten Weltkrieg waren – einer Währungsordnung, die im Wesentlichen durch Gold gestützt wurde.
In Indien und China ist der Besitz von Gold tief in der Kultur verwurzelt. In beiden Ländern werden Schmuck, Barren und andere Formen von Goldbarren als Symbol für Wohlstand und Sicherheit über Generationen weitergegeben. Indische Haushalte besitzen etwa 25.000 Tonnen Gold – mehr als fünfmal so viel, wie in der US-Goldreserve in Fort Knox gelagert ist.
Ob das italienische Programm tatsächlich die erhofften Einnahmen bringt, bleibt abzuwarten. Das Programm könnte in der ersten Hälfte 2026 starten. Teilnehmer würden legale Dokumente für ihr Gold erhalten und könnten bei einem zukünftigen Verkauf nur noch auf den Gewinn eine Kapitalertragssteuer von 26 Prozent zahlen.
Kritiker bezweifeln allerdings, dass viele Menschen teilnehmen werden. Bei einem aktuellen Goldpreis von über 4.300 Dollar pro Feinunze und einem möglicherweise erst in ferner Zukunft liegenden Verkauf dürfte der Anreiz begrenzt sein. "Ich glaube nicht, dass die Leute anfangen werden, die Halsketten zu wiegen, die ihnen ihre Großmutter oder ihr Großvater geschenkt haben", sagte der Oppositionsabgeordnete Gianmauro Dell'Olio laut FT.
URL dieses Artikels:https://www.heise.de/-11082195
Links in diesem Artikel:[1] https://www.heise.de/tp/article/Vermoegenssteuer-Der-Mythos-der-Steuerflucht-10235073.html[2] https://www.ft.com/content/2cda31af-1a6d-496f-91a4-9f6581d5d72d[3] https://www.bloomberg.com/news/articles/2025-10-21/gold-price-fall-why-record-rally-is-showing-signs-of-strain[4] https://www.heise.de/tp/article/Wie-Superreiche-fossile-Konzerne-und-Krieg-Inflation-weiter-anheizen-7542016.html[5] https://www.heise.de/tp/article/Fonds-in-Deutschland-Publikumsfonds-feiern-2025-ein-Sensationsjahr-11074194.html[6] https://www.heise.de/tp/article/Trumps-Zoelle-kippen-Firmen-erwarten-Milliarden-Rueckfluesse-11068098.html[7] https://www.heise.de/tp/article/Beijing-ignoriert-Westen-Russisches-Sanktions-Gas-landet-heimlich-in-China-10637347.html
Copyright © 2025 Heise Medien
Kai Imhoff
(Bild: Brave riti / Shutterstock.com)
Trotz Handelsabkommen droht Konflikt: Die EU befürchtet, dass Washington die Liste der mit 50 Prozent verzollten Metallprodukte erweitert.
Die Europäische Union sieht sich trotz des im Sommer geschlossenen Handelsabkommens mit den Vereinigten Staaten weiterhin mit erheblichen Handelshemmnissen für ihre Stahl- und Aluminiumindustrie konfrontiert.
Brüssel befürchtet, so berichtet Bloomberg, dass Washington die Liste der mit hohen Zöllen belegten Metallprodukte ausweiten könnte – und damit das Fundament der transatlantischen Handelsvereinbarung gefährdet.
Das im August geschlossene Handelsabkommen deckelt die Zölle [1]für die meisten EU-Waren zwar bei 15 Prozent. Davon ausgenommen bleiben jedoch Stahl und Aluminium. Für diese Metalle sowie für mehr als 400 Folgeprodukte, die sie enthalten, gilt weiterhin ein hoher Zollsatz von 50 Prozent.
Diese Sonderregelung trifft europäische Metallhersteller und weiterverarbeitende Betriebe besonders hart.
Besondere Sorge bereitet Brüssel die Tatsache, dass Washington die Produktliste mehrmals im Jahr anpasst. Die EU befürchtet, dass durch eine solche Ausweitung die vereinbarte Zollobergrenze von 15 Prozent schrittweise untergraben werden könnte.
EU-Handelskommissar Maroš Šefčovič wird das Thema bei seinem Treffen mit US-Handelsminister Howard Lutnick am 24. November in Brüssel ansprechen. Bereits am Vortag sind Gespräche zwischen Šefčovič und dem US-Handelsbeauftragten Jamieson Greer geplant.
Auch im Europäischen Parlament wird die Beibehaltung der hohen Zölle auf Stahl und Aluminium kritisch gesehen. Da die Abgeordneten der finalen Umsetzung des Abkommens noch zustimmen müssen, stellt dieser Punkt eine erhebliche Hürde dar.
Ein Sprecher der EU-Kommission betonte, man konzentriere sich darauf, mit den USA zusammenzuarbeiten, um das Handelsabkommen vollständig umzusetzen. "Die Kommission steht weiterhin sowohl auf politischer als auch auf technischer Ebene mit den USA in Kontakt", erklärte Olof Gill [2] laut Bloomberg.
Ein Kompromissvorschlag der EU-Kommission sieht laut Bloomberg eine Kontingentregelung [3] vor. Im Rahmen dieser Regelung könnte eine festgelegte Menge an Metallen zu günstigeren Zollsätzen importiert werden, während für alle Exporte, die diese Quote überschreiten, weiterhin der 50-prozentige Strafzoll anfallen würde.
Um die Verhandlungen voranzutreiben, hat die EU einen Fünf-Punkte-Plan entworfen. Dieser befasst sich neben klassischen Handelsthemen wie Zöllen und Marktzugang auch mit strategischen Fragen, darunter wirtschaftliche Sicherheit [4], die Angleichung von Vorschriften und die Kontrolle von Investitionen [5].
Ein zentraler Punkt ist die Zusammenarbeit im Bereich Stahl und Aluminium, wo beide Seiten gemeinsam gegen globale Überkapazitäten vorgehen wollen.
Brüssel argumentiert, dass die EU und die USA nur gemeinsam ihre Märkte vor Billigimporten schützen können. Dieser Ansatz könnte einen Kompromiss ermöglichen, der beiden Seiten gerecht wird.
Die Bewertung des Handelsabkommens fällt innerhalb der EU unterschiedlich aus. Während die deutsche Bundesregierung das Ergebnis im Sommer als akzeptabel ansah, übte Frankreich scharfe Kritik [6].
Bundeswirtschaftsministerin Katherina Reiche räumte die Schwierigkeiten durch die US-Zölle zwar ein, sah aber auch einen Vorteil in der gewonnenen Planbarkeit: "Der gute Teil daran – es gibt Sicherheit."
Parallel zu den diplomatischen Bemühungen hatten die EU-Mitgliedstaaten vorsorglich eine Liste mit US-Waren im Wert von 93 Milliarden Euro [7] für mögliche Vergeltungszölle vorbereitet.
URL dieses Artikels:https://www.heise.de/-11082072
Links in diesem Artikel:[1] https://www.heise.de/tp/article/Trumps-Zoelle-kippen-Firmen-erwarten-Milliarden-Rueckfluesse-11068098.html[2] https://www.bloomberg.com/news/articles/2025-11-17/eu-to-warn-lutnick-against-expanding-scope-of-us-steel-tariffs[3] https://www.bloomberg.com/news/articles/2025-11-12/eu-prepares-new-plan-to-implement-trade-agreement-with-us[4] https://www.heise.de/tp/article/89-Prozent-der-Unternehmen-Ausgeliefert-an-auslaendische-IT-Anbieter-11080101.html[5] https://www.heise.de/tp/article/Nexperia-Krise-Produktion-wird-zwischen-Europa-und-Asien-neu-verteilt-11068863.html[6] https://www.telepolis.de/article/Zollstreit-mit-USA-Deutschland-gewinnt-Frankreich-verliert-Linke-noergeln-10521874.html[7] https://www.telepolis.de/article/Zollstreit-mit-den-USA-Jetzt-laesst-die-EU-die-Muskeln-spielen-10500581.html
Copyright © 2025 Heise Medien

Im Rahmen der Supercomputing Conference SC25 , die aktuell in St. Louis in den USA stattfindet, ist die 66. Top-500-Liste der leistungsfähigsten Supercomputer vorgestellt worden. In der aktuellen Ausgabe ist sie um ein Exaflops-System reicher: Der am Forschungszentrum Jülich installierte Jupiter erreicht im Vollausbau mit 24.000 Nvidia GH200 Superchips im Benchmark High Performance Linpack (HPL) exakt 1 Trillion Gleitkommaberechnungen pro Sekunde.
Damit verpasst Jupiter nur knapp Platz 3, den weiterhin Aurora mit 1,012 Exaflops belegt. Die dürften schwer noch zu erreichen sein – der europäische Supercomputer erreichte im Benchmark rund 81,5 Prozent seiner theoretischen Maximalleistung. Einen besseren Wert erreicht in der Top 10 nur der japanische Fugaku. Dafür ist Jupiter nun das effizienteste Top-10-System: In der Green500 steigt der Supercomputer um sieben Plätze auf Rang 14 auf.
Ansonsten hat sich in der Top 10 nichts getan, El Capitan auf Platz 1 bekam 149 zusätzliche Cray EX255A-Blades und rechnet somit etwas schneller.
Auch wenn die Top-500-Liste nur vier Exascale-Systeme führt, sind weltweit mittlerweile deutlich mehr installiert. Allein die großen KI-Supercomputer dürften sich mühelos an die Spitze setzen, zudem ist unbekannt, welche Systeme in der Volksrepublik China installiert sind. Das Land meldet seit Jahren keine Zahlen mehr, Jack Dongarra, der die Top-500-Liste mitinitiierte, ging allerdings bereits 2023 von drei Exascale-Computern im Land aus.
Dass es in der Top 10 keine Neuzugänge gibt, täuscht darüber hinweg, dass einige neue Systeme gelistet sind: Insgesamt 46 Neuzugänge verzeichnet die 66. Top-500-Liste. Dabei handelt es sich aber größtenteils um kleinere Systeme mit maximal wenigen Racks.
Softbanks Chie-4 ist dabei auf Platz 17 der höchste Neueinstieg, und eines von sieben Systemen mit Nvidias Blackwell GPU , die erstmals in der Liste auftaucht. Die University of Florida hat zudem ihren Hipergator AI von A100 auf B200 umgerüstet. Der älteste gelistete Computer rechnet hingegen bei der Nasa: Pleiades wurde dort 2008 in Betrieb genommen . Seine ursprünglichen Xeons mit Sandy-Bridge-Mikroarchitektur wurden allerdings mittlerweile ausgemustert, stattdessen rechnen die Nachfolger Ivy Bridge, Haswell und Broadwell.
Bezüglich der Hardware hat sich nicht allzu viel getan: AMD legt bei den Beschleunigern auf knapp 12 Prozent zu, Nvidia dominiert hier aber weiter deutlich mit rund 86 Prozent. Erstmals sind mehr als die Hälfte der Systeme mit Beschleunigern, hauptsächlich GPUs, bestückt: Nur noch 246 der Supercomputer rechnen allein mit CPUs, auch wenn elf Systeme neu hinzukamen.
Auch bei den CPUs kann AMD weiter zulegen: Aktuell sind rund 57 Prozent der Systeme mit Xeons bestückt, AMD folgt mit rund 35 Prozent auf Platz 2, im einstelligen Bereich liegen Nvidias Grace (18 Systeme) und Fujitsus A64FX (8 Systeme).
Allerdings zeigt die Top-500-Liste einen kuriosen Effekt: Der Zuwachs an Rechenleistung, welchen die Liste erfasst, liegt weiter deutlich unter dem langjährigen Trend. Gleichzeitig wird weltweit so viel Rechenleistung installiert wie nie zuvor – nur vermessen wird sie nicht. Hyperscaler und KI-Unternehmen bauen riesige Rechenzentren, Benchmarks hiervon sind allerdings die Ausnahme. Microsofts Eagle bleibt allein und behauptet Platz 5.

Auf Initiative Deutschlands und Frankreichs findet am 18. November 2025 der Gipfel für Europäische Digitale Souveränität im Berliner Gasometer auf dem EUREF-Campus statt. Der Entwurf der Abschlusserklärung, der dem Handelsblatt vorliegt , fordert langfristige Investitionen in Hochleistungsrechner, Halbleiterfertigung, Quantenforschung, Satellitentechnik und moderne Kommunikationsnetze.
Das Papier mit dem Titel Declaration for European Digital Sovereignty liegt dem Handelsblatt vor. Kern der Erklärung ist der Anspruch Europas, künftig zu vermeiden, in kritischen Bereichen von Drittstaaten abhängig zu bleiben. Man betont, dass öffentliche Fördermittel allein nicht ausreichen. Investitionen aus der Wirtschaft müssten durch attraktive Rahmenbedingungen erleichtert werden. Die EU solle regulatorische Hürden abbauen, einen verlässlichen Ordnungsrahmen schaffen und bei Bedarf auch öffentliche Auftragsvergaben nutzen, um heimische Unternehmen zu stärken. Die EU-Staaten betonen zudem, dass digitale Souveränität nicht mit Protektionismus verwechselt werden dürfe. Europa wolle offen bleiben für globale Partner, "die dieselben Werte teilen" .
"Der Gipfel ist ein Startschuss, um die Kräfte Europas zu bündeln und gemeinsam konkrete Schritte zur Verringerung von Abhängigkeiten, zur Steigerung von Resilienz und zur Förderung von Innovationen voranzutreiben" , erklärte das Bundesdigitalministerium. Mehr als 1.000 Teilnehmende aus ganz Europa werden erwartet.
Zugleich hat Europas Industrie bisher weder die finanziellen Mittel, noch die zentrale Steuerung, um mit milliardenschweren KI- und Rechenzentrumsprojekten oder Leo-Satellitennetzen aus den USA oder China konkurrieren zu können. Gigantische Summen fließen zudem in die militärische Aufrüstung und schränken staatliche Subventionen weiter ein.

US-Präsident Donald Trump hat in verschiedene Tech-Unternehmen investiert, die Vorteile von seiner Politik hatten. Das geht aus einer Finanzpflichtmitteilung (Public Financial Disclosure Report) des Präsidenten hervor, die die US-Behörde für Regierungsethik (U.S. Office of Government Ethics) in einem Bericht (PDF) veröffentlicht hat. Demnach hat Trump Unternehmensanleihen von Intel, der Deutsche Telekom-Tochter T-Mobile US oder von Meta gekauft.
Die Investitionen waren bereits bekannt, neu sind die Angaben zur Höhe. Die Finanzoffenlegungen verwenden Spannen und geben keine genauen Kaufpreise an. Trump erwarb von Ende August bis Anfang Oktober 2025 Unternehmens- und Kommunalanleihen im Wert von mindestens 82 Millionen US-Dollar.
Den jüngsten Offenlegungen zufolge investierte Trump persönlich zwischen einer Million und fünf Millionen US-Dollar in Intel-Unternehmensanleihen (Corporate Bonds). Es gab einen eindeutigen Interessenkonflikt. Ende August kündigte Trump an, dass die USA eine zehnprozentige Beteiligung an dem angeschlagenen Halbleiter-Konzern Intel übernehmen werde.
Außerdem investierte Trump mindestens 500.000 US-Dollar in T-Mobile US. Konzernchef Tim Höttges hatte sich im Mai 2025 sehr positiv über die Trump-Regierung und die Situation von T-Mobile US seit dem Regierungswechsel geäußert.
"Ich kann mich nicht beklagen" , sagte er am 15. Mai 2025. Für die Telekom hätten sich durch die neue US-Regierung die Bedingungen als ausländischer Investor in den USA nicht verschlechtert. "Jeder, der eine bessere Performance, etwas Gutes für Amerika bringt, wird von der neuen Regierung respektiert" , betonte Höttges.
Bei der Übernahme von Sprint von der japanischen Softbank im Jahr 2021 habe T-Mobile US alle Ausbau- und Wettbewerbsauflagen der ersten Trump-Regierung erfüllt, sagte er. T-Mobile US zahlte 26,5 Milliarden US-Dollar. Anschließend wurden alle Übernahmen von T-Mobile US von konkurrierenden Netzbetreibern von der US-Regierung ohne wettbewerbsrechtliche Auflagen genehmigt.
T-Mobile US beteiligte sich zudem im Oktober 2025 an einer Spendengala von US-Präsident Donald Trump, bei der es um den Bau eines neuen Ballsaals im Weißen Haus im Wert von 250 Millionen US-Dollar ging.
Zu den von Trump erworbenen Unternehmensanleihen gehören Anleihen von Chipherstellern wie Broadcom und Qualcomm, Technologieunternehmen wie Meta Platforms, Einzelhändlern wie Home Depot und CVS Health sowie Wall-Street-Banken wie Goldman Sachs und Morgan Stanley.
Alle Details zur Störungsmeldung ansehen Eigene Internetstörung melden
(Bild: heise medien)
Eine neue Umfrage zeigt drastische finanzielle Folgen von Cyberangriffen: 70 Prozent der börsennotierten Unternehmen mussten ihre Gewinnprognosen anpassen.
Cyberangriffe haben weitreichende finanzielle Konsequenzen, die weit über die unmittelbaren technischen Schäden hinausgehen. Wie eine aktuelle Studie des Datensicherheitsanbieters Cohesity zeigt, mussten weltweit 70 Prozent der börsennotierten Unternehmen nach einem schwerwiegenden Cyberangriff ihre Gewinn- oder Finanzprognosen revidieren. 68 Prozent verzeichneten spürbare Auswirkungen auf ihren Aktienkurs.
Die Untersuchung "Risk-Ready or Risk-Exposed: The Cyber Resilience Divide" definiert einen erheblichen Cyberangriff als Vorfall mit messbaren Auswirkungen auf Finanzen, Reputation, Betrieb oder Kundenabwanderung. Mehr als die Hälfte der befragten Unternehmen (54 Prozent weltweit, 52 Prozent in Deutschland) erlebte in den vergangenen zwölf Monaten mindestens einen solchen Angriff.
Deutsche Unternehmen zeigen sich dabei vergleichsweise robuster: Nur 52 Prozent der börsennotierten Firmen hierzulande mussten ihre Finanzprognosen anpassen, lediglich 45 Prozent sahen Auswirkungen auf den Aktienkurs. Bei nicht börsennotierten Unternehmen widmeten in Deutschland 62 Prozent Budget von Innovation und Wachstum zur Wiederherstellung nach Angriffen um – gegenüber 73 Prozent weltweit.
"Diese Ergebnisse zeigen, dass deutsche Unternehmen vergleichsweise gut aufgestellt sind, um die geschäftlichen Auswirkungen eines Cyberangriffs klein zu halten", erklärt Patrick Englisch, Director & Head of Technology Sales Central Europe bei Cohesity. Allerdings schätzen 54 Prozent der deutschen Befragten ihre Cyberresilienz-Strategie als verbesserungswürdig ein.
Die finanziellen Schäden sind erheblich: 31 Prozent der deutschen Unternehmen verloren zwischen einem und zehn Prozent ihres Jahresumsatzes durch Cyberattacken, weltweit waren es 36 Prozent. Rechtliche und regulatorische Konsequenzen wie Geldstrafen und Gerichtsverfahren trafen 89 Prozent der deutschen Firmen – ein nur geringfügig besserer Wert als die 92 Prozent weltweit.
Besonders problematisch: Über 80 Prozent der Unternehmen in Deutschland und weltweit zahlten im vergangenen Jahr Lösegeld bei Ransomware-Angriffen. Mehr als ein Drittel davon überwies sogar über eine Million Dollar an die Erpresser.
Ein kritischer Unterschied zeigt sich bei der Automatisierung der Angriffsabwehr: Während weltweit 44 Prozent der Attacken automatisch erkannt und verifiziert werden, sind es in Deutschland nur 35 Prozent. Hierzulande überwiegt mit 42 Prozent die manuelle Verifizierung vor einer Reaktion – weltweit liegt dieser Wert bei 37 Prozent.
Die Wiederherstellung von Daten aus Backups dauert in den allermeisten Unternehmen mehr als einen Tag (Deutschland: 94 Prozent, weltweit: 96 Prozent). In jedem zehnten Fall benötigen Firmen mindestens eine Woche für die vollständige Datenwiederherstellung. Entsprechend fordern 63 Prozent der deutschen Befragten eine stärkere Automatisierung bei Erkennung, Reaktion und Recovery.
Die Forderung nach mehr Automatisierung deckt sich mit Erkenntnissen aus anderen aktuellen Untersuchungen. Eine im Oktober 2025 veröffentlichte Studie des Branchenverbands eco [1] hatte bereits gezeigt, dass rund 40 Prozent der deutschen Unternehmen KI-gestützte Systeme zur Anomalieerkennung und Incident Response einsetzen. Die Bedrohungslage bewerten laut eco 88 Prozent der IT-Sicherheitsfachleute als hoch oder sehr hoch.
Interessanterweise erweist sich die oft kritisierte deutsche Zurückhaltung bei neuen Technologien als Sicherheitsvorteil: Während weltweit 37 Prozent der Befragten angeben, dass GenAI-Tools in ihren Unternehmen deutlich schneller eingeführt werden, als sie es für sicher halten, sind es in Deutschland nur 29 Prozent. Die als typisch erachtete deutsche Skepsis bremst also offenbar eine zu schnelle Einführung von Tools, deren Sicherheitsstandards noch nicht ausreichend überprüft wurden.
Trotz der vergleichsweise besseren Werte bleibt Deutschland explizit nicht von den Herausforderungen verschont, die das Bundesamt für Sicherheit in der Informationstechnik in seinem aktuellen Lagebericht [2] beschreibt. Besonders staatlich gelenkte Angriffe und Ransomware stellen anhaltende Bedrohungen dar.
Für die Zukunft setzen die Unternehmen auf künstliche Intelligenz: 41 Prozent der deutschen Befragten erwarten, dass KI bis Ende 2026 eine zentrale Rolle in ihrer Datensicherheitsstrategie einnehmen wird – weltweit sind es 37 Prozent. Fast alle Teilnehmer sehen einen begrenzten Einsatz von KI zur Unterstützung menschlicher Entscheidungen oder zur Automatisierung von Routineaufgaben vorher. Nur ein Prozent will KI ausschließlich zur Erfüllung von Compliance-Anforderungen nutzen.
"Automatisierung lohnt sich in jedem Fall", betont Englisch. "Schließlich haben in Deutschland und weltweit jeweils über 80 Prozent der Unternehmen im letzten Jahr Lösegeld in Zusammenhang mit Ransomware bezahlt – über ein Drittel sogar mehr als eine Million Dollar. Jeder abgewehrte Angriff bedeutet damit direkt messbare Kosteneinsparungen."
Die Studie basiert auf einer Umfrage unter 3.200 IT- und Sicherheitsverantwortlichen, davon 400 aus Deutschland. Die Befragung wurde im September 2025 von Vanson Bourne im Auftrag von Cohesity durchgeführt. Die Befragten repräsentieren Unternehmen mit mindestens 1.000 Mitarbeitern aus öffentlichen und privaten Sektoren in elf Ländern. Details zu den Ergebnissen finden sich bei Cohesity [3].
URL dieses Artikels:
https://www.heise.de/-11081606
Links in diesem Artikel:
[1] https://www.heise.de/news/Studie-KI-wird-zum-zentralen-Werkzeug-in-der-Cyberabwehr-10964100.html
[2] https://www.heise.de/news/BSI-zur-Cybersicherheit-Stabil-unsicher-11074222.html
[3] https://www.cohesity.com/newsroom/press/research-finds-cyberattacks-forcing-financial-course-corrections/
[4] https://www.heise.de/ix
[5] mailto:fo@heise.de
Copyright © 2025 Heise Medien
(Bild: amgun/ Shutterstock.com)
Über eine Oracle-Schwachstelle sind Kriminelle auch bei der Washington Post eingedrungen. Daten von fast 10.000 Menschen sind abgeflossen.
Bei der renommierten Washington Post sind Kriminelle durch eine Sicherheitslücke in der Oracle E-Business-Suite eingedrungen und haben Daten von knapp 10.000 Menschen kopiert. Dahinter steckt vermutlich die Cybergang cl0p.
In einer Mitteilung zum Datenschutzvorfall beim Generalstaatsanwalt [1] des US-Bundestaats Maine erörtert die Zeitung den Vorfall. Demnach wurde die Post von den Tätern am 29. September kontaktiert. Sie behaupteten, in das Oracle E-Business-Suite-System eingedrungen zu sein. Bei der Untersuchung konnten IT-Spezialisten feststellen, dass die kritische Schwachstelle CVE-2025-61882 in der Oracle EBS [2] missbraucht wurde. Zwischen dem 10. Juli und 22. August haben Unbefugte auf Daten zugegriffen. Am 27. Oktober konnte die Washington Post verifizieren, dass bestimmte persönliche Informationen von aktuellen und ehemaligen Angestellten sowie Auftragnehmern davon betroffen waren.
Dazu gehören etwa Namen, Bankverbindungen, Sozialversicherungsnummern oder auch Steuer-IDs. Mittels herkömmlicher Briefpost hat die Post ab dem 12. November Betroffene informiert.
Vergangene Woche wurde bekannt, dass die Cybergang cl0p neue betroffene Unternehmen auf ihre Darknet-Leaksite [3] aufgenommen hatte. Darunter etwa die Washington Post und Logitech. Auch Logitech hatte am Wochenende einen Cyber-Security-Vorfall [4] eingeräumt und die dafür verantwortliche Gruppierung nicht benannt. Es ist jedoch naheliegend, dass in beiden Fällen cl0p hinter den Attacken steckt.
Die kriminelle Online-Vereinigung nutzt immer wieder Schwachstellen etwa in Datentransfer-Software aus, um damit in die IT von zahlreichen Unternehmen einzudringen und dort potenziell wertvolle Daten zu kopieren, mit denen sie die Unternehmen dann erpresst. Ende Februar tauchten so rund 230 neue Unternehmen auf der Darknet-Leaksite von cl0p [5] auf.
URL dieses Artikels:
https://www.heise.de/-11081532
Links in diesem Artikel:
[1] https://www.maine.gov/agviewer/content/ag/985235c7-cb95-4be2-8792-a1252b4f8318/12a31419-4ed0-41ba-a045-2593908ba368.html
[2] https://www.heise.de/news/Jetzt-patchen-Angreifer-erpressen-Oracle-E-Business-Suite-Kunden-10712120.html
[3] https://www.heise.de/news/Monsta-FTP-Kritische-Luecke-ermoeglicht-Angreifern-Schadcode-Ausfuehrung-11072415.html
[4] https://www.heise.de/news/Angreifer-steigen-ueber-Zero-Day-Luecke-bei-Logitech-ein-11080333.html
[5] https://www.heise.de/news/Cyber-Bande-Cl0p-Angeblich-Daten-bei-HP-und-HPE-geklaut-10299401.html
[6] https://aktionen.heise.de/heise-security-pro?LPID=39555_HS1L0001_27416_999_0&wt_mc=disp.fd.security-pro.security_pro24.disp.disp.disp
[7] mailto:dmk@heise.de
Copyright © 2025 Heise Medien
(Bild: heise online / dmk)
Windows 11 23H2 in der Home- und Pro-Ausgabe sind am Lebensende angelangt. Unverwaltete Rechner stattet Microsoft nun mit 25H2 aus.
Auf Rechnern, die nicht von einer IT-Abteilung mit Microsoft-Management-Tools verwaltet werden und auf denen Windows 11 23H2 läuft, verteilt Microsoft jetzt automatisch das Upgrade auf Windows 11 25H2. Das betrifft die Home- und die Pro-Edition von Windows 11 23H2.
Das teilt Microsoft in den Release-Health-Notizen [1] zu Windows 11 23H2 mit. "Die Home- und Pro-Editionen von Windows 11 Version 23H2 haben am 11. November das Service-Ende erreicht", schreibt Microsoft dort, "Enterprise- und Education-Ausgabe erhalten weiterhin monatliche Sicherheitsupdates bis zum 10. November 2026." Windows 11 25H2, auch als Windows 11 2025-Update bekannt, ist die jüngste erhältliche Windows-Version. "Wir empfehlen Ihnen, auf Version 25H2 zu wechseln, um an die jüngsten Windows-Innovationen zu gelangen", versuchen die Verantwortlichen, das Update Betroffenen schmackhaft zu machen.
"Geräte, auf denen Home- und Pro-Versionen von Windows 11 23H2 laufen und die nicht von IT-Abteilungen verwaltet werden, erhalten das Update auf Windows 11 25H2 automatisch", erklärt Microsoft weiter. Durch die Einstellung der Nutzungszeiten des Rechners lässt sich der Neustart-Zeitpunkt beeinflussen; die automatische Installation lässt sich in "Start" – "Einstellungen" – "Windows Update" unter dem Menüpunkt "Updates aussetzen" verzögern. Auch Windows 11 22H2 ist aus dem Support gefallen, hier hat Microsoft ein automatisches Update auf eine jüngere Windows-11-Version [2] verteilt – ohne jedoch explizit zu erwähnen, welche. Für Geräte mit Windows 11 24H2 verteilt Microsoft die Aktualisierung auf 25H2 jedoch vorerst nur dann automatisch, wenn die Option "Erhalten Sie die neuesten Updates, sobald sie verfügbar sind" in den Windows-Update-Einstellungen aktiviert wurde.
Im August hatte Microsoft zuletzt auf den auslaufenden Support [3] für mehrere Windows-11-Entwicklungszweige hingewiesen.
URL dieses Artikels:
https://www.heise.de/-11081472
Links in diesem Artikel:
[1] https://learn.microsoft.com/en-us/windows/release-health/status-windows-11-23H2
[2] https://learn.microsoft.com/en-us/windows/release-health/status-windows-11-22h2
[3] https://www.heise.de/news/Microsoft-erinnert-an-Support-Ende-fuer-Windows-10-und-11-Versionen-10531085.html
[4] https://aktionen.heise.de/heise-security-pro?LPID=39555_HS1L0001_27416_999_0&wt_mc=disp.fd.security-pro.security_pro24.disp.disp.disp
[5] mailto:dmk@heise.de
Copyright © 2025 Heise Medien
Marktforscher senken ihre Prognose für 2026: Wegen hoher Preise für RAM und Flash-Speicherchips erwarten sie geringeres Wachstum bei Computern und Handys.
Die hohen und weiter steigenden Preise für DRAM- und NAND-Flash-Speicherchips bremsen im kommenden Jahr das Wachstum einiger Marktsegmente, meint die taiwanische Firma Trendforce. Sie reduziert beispielsweise ihre Prognose für Smartphones deutlich: Bisher erwartete Trendforce für 2026 ein Nullwachstum bei den Stückzahlen, nun einen Rückgang um 2 Prozent.
Auch bei Notebooks erwartet Trendforce 2026 einen Rückgang der verkauften Stückzahlen um 2,4 Prozent statt eines Wachstums um 1,7 Prozent.
Einerseits würden hohe Preise für LPDDR5X- und DDR5-SDRAM-Chips [1] sowie für Flash-Speicher zu teureren Geräten führen, was die Kauflaune dämpfe, meint Trendforce. Andererseits dürfte es kleineren Smartphone-Marken schwerfallen, überhaupt genügend DRAM-Chips zu beschaffen.
Trendforce geht davon aus, dass Smartphones und Notebooks der unteren Preisklassen stärker von den steigenden Beschaffungskosten für Speicherchips betroffen sein werden. Bei billigeren Geräten hätten die Preise der Speicherchips einen höheren Anteil an den gesamten Herstellungskosten als bei teureren Geräten, zudem sei gleichzeitig die Profitmarge geringer.
Wenn Chips knapp werden, dürften die Hersteller sie zudem eher in teurere Produkte mit höheren Profiten einbauen. Laut Branchenkennern soll die gesamte weltweite Produktion von NAND-Flash-Chips für 2026 bereits weitgehend ausverkauft [2] sein.
Trendforce hält bei Smartphones sogar eine Marktbereinigung für möglich, also dass einzelne Hersteller aus dem Markt aussteigen, weil sich das Geschäft für sie nicht mehr lohnt.
Große Marken hingegen schließen tendenziell längerfristige Zulieferverträge. Samsung ist als weltgrößter Hersteller sowohl von Speicherchips als auch als großer Smartphone-Hersteller weniger auf Zulieferer angewiesen.
Derzeit machen die Kosten für Speicherchips (Arbeitsspeicher/DRAM und Flash für die SSD) laut Trendforce zwischen 10 und 18 Prozent der gesamten Herstellungskosten eines Notebooks aus. 2026 könnte dieser Anteil auf mehr als 20 Prozent steigen.
Die gestiegenen Kosten könnten die Hersteller aber nicht in voller Höhe an die Käufer der Geräte weitergeben. Denn es sei absehbar, dass die Nachfrage eher schwach ausfallen wird. Trendforce erwartet, dass manche Hersteller deshalb die Entwicklung neuer Modelle verzögern könnten, um Kosten zu sparen.
URL dieses Artikels:
https://www.heise.de/-11081502
Links in diesem Artikel:
[1] https://www.heise.de/news/Arbeitsspeicher-RAM-Preise-schiessen-hoch-11066715.html
[2] https://www.heise.de/news/Speicherkrise-Flash-ist-knapp-wie-nie-11073558.html
[3] https://www.heise.de/ct
[4] mailto:ciw@ct.de
Copyright © 2025 Heise Medien