Branchenkenner bezeichnen die Situation als "SaaSpocalypse", heißt es bei [4]Bloomberg.
Ein Aktienkorb von Goldman Sachs mit US-Softwarewerten sackte innerhalb eines Tages um sechs Prozent [5] ab. Der S&P North American Software Index ging ebenfalls auf Talfahrt – und setzte damit einen negativen Trend fort: Im Januar rutschte er bereits um 15 Prozent ab.
Automatisierung juristischer Prozesse als Katalysator
Nutzer erhalten Befehle zur Steuerung: Eine Funktion analysiert Vertragsklauseln und kennzeichnet problematische Stellen farblich mit konkreten Verbesserungsvorschlägen.
Eine andere sortiert eingehende Geheimhaltungsvereinbarungen nach Prüfungsbedarf. Das Unternehmen betont ausdrücklich, dass Juristen die Ergebnisse kontrollieren müssen [8].
Vom Nischenanbieter bis zum Branchenriesen betroffen
Zunächst traf es Firmen mit Schwerpunkt auf Rechtsinformationen. Die Börse in London verlor dreizehn Prozent ihres Werts, der Informationsdienstleister Thomson Reuters 16 Prozent. Der Online-Rechtsservice Legalzoom brach um 20 Prozent ein.
Schnell erfasste der Abwärtssog die gesamte Softwareindustrie. Die Grafik- und Dokumentensoftware-Hersteller Adobe sowie der CRM-Anbieter Salesforce gaben jeweils rund sieben Prozent nach. Microsoft verlor weitere drei Prozent – innerhalb weniger Tage summierte sich der Verlust auf über dreizehn Prozent.
Im Finanzsektor erwischte es [9] besonders Kreditgeber. Die Investmentgesellschaft Blue Owl Capital sank um 13 Prozent. Die Private-Equity-Häuser Ares Management, KKR und TPG büßten mehr als zehn Prozent ein.
Doppelte Bedrohung durch Modellanbieter
Anders als spezialisierte Legal-Tech-Startups entwickelt Anthropic die grundlegenden KI-Systeme selbst. Diese lassen sich gezielt für einzelne Branchen optimieren.
Dadurch entsteht Druck auf zwei Ebenen: Etablierte Datenanbieter sehen sich ebenso herausgefordert wie junge KI-Firmen im Rechtsbereich.
Start-ups wie Harvey AI mit einer Bewertung von fünf Milliarden US-Dollar nutzen Basissysteme externer Entwickler. Wenn diese Anbieter nun eigene Branchenlösungen präsentieren, verschärft sich der Wettbewerb erheblich.
Quartalszahlen bestätigen Branchenschwäche
Die aktuellen Geschäftsergebnisse unterstreichen die angespannte Lage. Lediglich 71 Prozent der Softwarefirmen im S&P 500 übertrafen die Umsatzprognosen. Im gesamten Technologiesektor gelang dies 85 Prozent der Unternehmen.
Microsoft legte solide Zahlen vor, doch Investoren konzentrierten sich auf das nachlassende Wachstum im Cloud-Geschäft [10] bei gleichzeitig steigenden Investitionen in KI-Infrastruktur. Die Aktie verlor daraufhin an einem Tag zehn Prozent. Auch ServiceNow und SAP nährten Zweifel am künftigen Expansionstempo.
Gegen den Trend entwickelte sich Palantir Technologies [11]. Das Analyseunternehmen steigerte seinen Umsatz im Schlussquartal um 70 Prozent. Der Kurs legte um knapp sieben Prozent zu.
Risikoprüfung bei Beteiligungsgesellschaften
Die Verunsicherung erreichte auch Private-Equity-Investoren. Mehrere Gesellschaften lassen ihre Portfolios auf anfällige Softwarebeteiligungen durchleuchten. Apollo reduzierte den Softwareanteil in seinen Kreditfonds um nahezu die Hälfte.
Ein Fondsmanager bringt laut Bloomberg die Herausforderung auf den Punkt: In diesem Jahr entscheide sich, welche Firmen von KI profitieren und welche verdrängt werden.
URL dieses Artikels: https://www.heise.de/-11165302
Multitasking statt sequenzielles Abarbeiten von Aufgaben: Mit der Codex-App lassen sich mehrere KI-Agenten gleichzeitig ausführen und zentral steuern.
Die neue Codex-App von OpenAI bietet Entwicklerinnen und Entwicklern eine zentrale Bedienoberfläche für mehrere Codex-Agenten mitsamt Projekten, Fähigkeiten und Automatisierungen. Vorerst gibt es die App nur als Desktop-Anwendung für macOS. Der zentrale KI-Agent hinter der App ist das gleichnamige KI-Tool Codex.
Parallel zum Launch der Codex-App ist Codex für einen begrenzten Zeitraum in den ChatGPT-Tarifen [1] Free und Go enthalten. Wie lange genau, sagt OpenAI allerdings nicht. Für die Tarife Plus, Pro, Business, Enterprise und Edu verdoppelt der Anbieter die Nutzungslimits. Diese sollen überall dort gelten, wo Codex zum Einsatz kommt, was neben der neuen App auch für IDEs oder die Cloud gilt.
Delegieren statt Programmieren
Während das 2025 veröffentlichte AI-Tool Codex [2] Softwareentwicklern einen Teil der Programmierarbeit abnehmen kann, verfolgt die jetzt vorgestellte App einen umfassenderen Ansatz. Sie soll Developer in die Lage versetzen, komplexe und langwierige Multitasking-Aufgaben über ganze Teams von Agenten hinweg zu bewältigen, ohne dabei den Überblick zu verlieren.
Für das Delegieren der Workflows stellt das KI-Tool neben automatischen Zeitplänen auch nach Projekten organisierte Threads zur Verfügung, sodass mehrere Agenten parallel laufen und Aufgaben austauschen. Hinzu kommt eine Unterstützung für Git Worktrees, was es Agenten erlaubt, gleichzeitig und konfliktfrei am selben Repository zu arbeiten. Um Entwicklerinnen und Entwicklern den Einstieg zu erleichtern, übernimmt die Codex-App Sitzungsverläufe und Konfigurationen aus der Codex-CLI und IDE-Erweiterungen.
Eine Bibliothek mit Funktionen (Skills) für Tools und Workflows gehört ebenfalls zum Umfang der App. Damit lassen sich beispielsweise Webapps auf Cloud-Hosts hochladen, Bilder generieren, Dokumentationen erstellen oder Designs umsetzen. Eine vollständige Liste findet sich im Repository von OpenAI [3].
Integriert: Die Codex-App kommt mit einer umfangreichen Funktionsbibliothek (Skills).
(Bild: OpenAI)
So wie die Codex-CLI verwendet auch die Codex-App systemweite und konfigurierbare Sandbox-Mechanismen. Die Agenten sind darauf beschränkt, Dateien nur innerhalb isolierter Kopien zu bearbeiten. Aktionen, die höhere Berechtigungen erfordern wie der Netzwerkzugriff, führen sie erst nach erteilter Erlaubnis durch. Zur Automatisierung lassen sich bestimmte Befehle mit erhöhten Berechtigungen ausführen. Geplant hat OpenAI, dass Codex künftig cloudbasiert kontinuierlich im Hintergrund weiter läuft, auch wenn die Anwender ihre Rechner ausgeschaltet haben.
Als Beispiel für die Arbeit der Codex-App zeigt OpenAI ein Rennspiel [4], das Codex nach Prompt-Eingabe über mehrere Iterationen hinweg mit insgesamt 7 Millionen Tokens selbst entwickelt hat. Dabei ist das Tool auch in die Rollen von Designern und QA-Tester geschlüpft, und hat das Spiel selbst gespielt.
Windows- und Linux-User können sich bei OpenAI registrieren und sollen dann per Mail benachrichtigt [5] werden, sobald die App für diese Plattformen erscheint.
URL dieses Artikels: https://www.heise.de/-11164965
Links in diesem Artikel: [1] https://chatgpt.com/de-DE/pricing/ [2] https://www.heise.de/news/OpenAI-Tool-Codex-soll-Softwareentwicklern-das-Programmieren-abnehmen-10387230.html [3] https://github.com/openai/skills [4] https://openai.com/de-DE/index/introducing-the-codex-app/ [5] https://openai.com/de-DE/form/codex-app/ [6] mailto:who@heise.de
(Bild: Erstellt mit KI (Midjourney) durch iX-Redaktion)
Java wurde 2025 schon 30 Jahre alt. Das ist ein guter Zeitpunkt, zurück, aber auch nach vorn zu blicken.
In den vergangenen 30 Jahren hat sich eine rege Community im Java-Umfeld gebildet. Ich habe im Laufe des Jahres 2025 einige deutschsprachige Vertreter zu ihren Erfahrungen befragt. Die Resonanz war überwältigend. Vielen Dank an alle, die mitgemacht haben. In diesem vierten Teil kommen Michael Simons (Java Champion), Stefan Zörner (Buchautor und Mitglied der Apache Foundation), Markus Eisele (Java Champion), Dirk Weil (Buchautor) und Michael Vitz (Java Champion) zu Wort.
Java prägt viele Entwickler und Entwicklerinnen seit ihren ersten Schritten in der IT – und hat in dieser Zeit Höhen, Tiefen und mehrere Neuerfindungen erlebt. Die folgenden Antworten spiegeln persönliche Anfänge, prägende Erlebnisse, kritische Momente und eine Einordnung von Javas Rolle in der heutigen Softwareentwicklung wider. Abschließend wagen sie einen Blick nach vorn: mit Tipps für die eigene Weiterentwicklung und Erwartungen an Java in den kommenden Jahren.
Wann und mit welcher Version bist du erstmals mit Java in Berührung gekommen?
Michael Simons: Produktiv, also gegen Geld Software mit Java entwickelt um 2003, mit J2SE 1.4. Während des Studiums mal kurz J2SE 1.2 oder 1.3 angefasst, aber meine Ausbildung war sehr C- und Fortran-90-lastig.
Stefan Zörner: Ich habe bis 1998 an der Uni Münster Mathematik studiert und am Ende Übungsgruppen in Informatik betreut. Da wurde 1996/97 ganz frisch Java eingesetzt. Ich habe es mit den Leuten aus meinen Übungsgruppen zusammen gelernt, Version 1.0 war das.
Markus Eisele: Ich denke, es muss J2SE 1.2 gewesen sein. So um 1999.
Dirk Weil: Das war die allererste Version 1.0 – ich glaube, im Jahr 1996. Wir haben damals einen Arbeitskreis ins Leben gerufen, um die Entwicklung von Java zu beobachten und darüber zu diskutieren.
Michael Vitz: Das erste Mal in Berührung mit Java bin ich noch in meiner Schulzeit in der Oberstufe gekommen. Dort konnte ich für ein Jahr Informatik als Fach belegen. Dort begann, erst mit JavaKara und anschließend mit der Bibliothek „Stifte und Mäuse“, mit Java 1.4 und IBM Jikes als Compiler, meine lange Reise im JVM-Ökosystem.
Was war rückblickend dein schönstes Erlebnis mit der Sprache oder dem Ökosystem Java?
Michael Simons: „Dein schönstes Erlebnis mit einer Programmiersprache …“ – ich finde die Frage ein wenig irritierend. Emotional am schönsten war sicherlich, dass ich durch Java überhaupt in ein größeres Open-Source-Ökosystem eintauchen konnte. Mein damaliger Arbeitgeber war primär ein Oracle-Shop, das heißt, wir haben viel Oracle-Tools, wie Forms und Designer, genutzt, und darin gab es damals wenig Gelegenheit, Open Source zu machen. Über Java bin ich in die Spring-Welt gekommen und habe mir dort einen Namen gemacht und konnte 2016 das erste Mal auf einer internationalen Konferenz über Springs Autokonfiguration sprechen. Das hat mein Leben sehr bereichert und auch beeinflusst. Es ist nicht bei Spring geblieben, ich war auch einer der ersten Sprecher über jOOQ, und konnte so meine „Liebe“ für Java und deklarative Abfragesprachen in die Welt tragen. Seit fast sieben Jahren arbeite ich im Open-Source-Umfeld. Ohne Java und eine offene, inklusive Community wäre mein Leben zumindest in beruflicher Hinsicht ganz anders verlaufen.
Stefan Zörner: Ich habe später viel im Unternehmensumfeld entwickelt, in meiner IBM-Zeit vor allem in Versicherungen, da war J2EE angesagt. Die Vereinfachung vieler Dinge durch Hibernate und vor allem Spring war tatsächlich eine kleine Offenbarung. Die Bücher von Spring-Vater Rod Johnson habe ich gerne gelesen.
Markus Eisele: Sicherlich die Community. Ich habe früh in meiner Karriere damit begonnen, mein Wissen aus Projekten weiterzugeben, und ich kann mich noch sehr gut an die ersten Vorträge über Struts und J2EE erinnern, die ich im Rahmen von freitäglichen Infoveranstaltungen gehalten habe. Auf diesem Weg ging ich weiter in Richtung internationaler Konferenzen und hatte das Glück, auch mal auf der JavaOne zu sprechen. Das schönste Erlebnis war sicherlich, die Geburt der JavaLand begleiten zu dürfen und der Sprache auch hierzulande eine große Plattform bieten zu können.
Dirk Weil: Mit Java hatte ich das erste Mal das Gefühl, dass ich nicht der Erste war, der ein Problem hatte. Es gab nun eine Community, die sich gegenseitig unterstützte und Lösungen verteilte. Das hatte ich vorher mit C und C++ nicht erlebt. Dazu kam die damals noch rasante Entwicklung von Server-Produkten wie BEA WebLogic oder JBoss. Damit traf Java exakt den Punkt der Revolution von Anwendungen weg vom meist lokalen Client-Server-Modell hin zu global verfügbaren Webanwendungen.
Michael Vitz: Auf der persönlichen Ebene sicher meine Ernennung zum Java Champion Anfang 2021. Seitdem darf ich Mitglied in einer Gruppe sein, in der viele Menschen sind, deren Arbeit ich jahrelang verfolgt und geschätzt habe. Und ich erwische mich immer noch mit dem Gedanken, dass ich als kleines Licht dort eigentlich nicht hingehöre. Aus einer professionellen Sicht gibt es sehr viele schöne Erlebnisse, aber nicht das eine. Jede Anwendung und jedes Problem, die ich, auch weil mir ein solches Ökosystem zur Seite steht, mit Java lösen konnte und die anschließend Mehrwert liefert, lösen in mir positive Gefühle aus.
Aber es ist nicht alles Gold, was glänzt. Was hat dich negativ beeinflusst beziehungsweise was war ein unschöner Moment im Java-Umfeld?
Michael Simons: Ein, zwei menschliche Enttäuschungen, die auf die widersinnige Annahme zurückzuführen sind, dass „alle“ Menschen in einem positiven Umfeld generell positiv sind beziehungsweise sich auch in meinem Wertekosmos bewegen. Das hat aber weniger mit der Sprache als solcher zu tun.
Stefan Zörner: Umgekehrt die Mühen, die man mit J2EE und speziell EJB 1.0 hatte. Eigentlich wollte ich nur eine Entität persistieren. Die rituellen Handlungen beim Deployment waren erheblich. Das Ganze wurde erst durch die Einflüsse von Spring und Hibernate auch in Java EE besser.
Markus Eisele: Mich persönlich stört die rigorose Handhabung des Trademarks von Oracle. Durch das konsequente Verfolgen von jeglichen Aktivitäten, die den Begriff „Java“ im Namen tragen, ist die Community immer gezwungen, alternative Wege zu gehen und es gibt kaum ein aktives Community-Mitglied, welches da nicht seine unschönen Erfahrungen gesammelt hat. Hier wurde und wird weiterhin sehr viel Vertrauen und Wertschätzung für einen durchaus fragwürdigen Gegenwert verspielt.
Dirk Weil: Die sehr zähe Weiterentwicklung von Java EE in den Jahren ab 2016 war sehr irritierend. Das ging teilweise bis zur Einschätzung, dass Java EE tot sei. Der Umstieg auf Jakarta EE mit seinem eher juristisch verordneten Paketnamenswechsel und dem damit verbundenen Breaking Change in der Plattform setzte da sogar noch einen drauf.
Michael Vitz: Zum Glück kann ich mich nicht bewusst an einen negativen Moment erinnern. Natürlich gab es, aufgrund des Pluralismus im Ökosystem, immer mal wieder Scharmützel zwischen Bibliotheken, Werkzeugen oder Frameworks, aber aus meiner Sicht haben diese sich stets in Grenzen gehalten und sind selten unter die Gürtellinie gerutscht oder sehr persönlich geworden. Auf das JDK selbst hat wohl primär die Einführung des Modulsystems und der damit für einige etwas kompliziertere Wechsel auf JDK 9 negativen Einfluss gehabt. Aber auch das ist jetzt schon fast acht Jahre her.
Glaubst du, dass Java auch nach 30 Jahren noch relevant ist? Welche Rolle spielt Java deiner Meinung nach in der modernen Softwareentwicklung, insbesondere im Vergleich zu anderen Sprachen und Technologien?
Michael Simons: Ja, definitiv. Vor über 20 Jahren habe ich bereits Java Stored Procedures in eine Oracle-Datenbank deployed. Programme und Applikationen, die ich vor zehn Jahren geschrieben habe, sind immer noch im Betrieb. Unsere Open-Source-Module sind weltweit im Einsatz. Einige der erfolgreichsten IDEs dieses Planenten sind in Java geschrieben. All die Versicherungs- und Bankensoftware wird sich nicht von alleine warten oder durch generierten Code ersetzt werden. Ich mache mir da wenige Sorgen. In den letzten zwei, drei Jahren habe ich für mich viel Python geschrieben. Zusammen mit dem Pink-Database-Design-Paradigma, das Datenbanken in den Mittelpunkt stellt, ist es eine ungeheuer leichtgewichtige und schnelle Alternative für kleine bis mittelgroße Applikationen. Ich möchte das nicht missen. Aber, wenn ich an einen größeren Einsatz denke, möchte ich auch nicht auf die Stabilität von Java, die sensible Evolution, das annähernd komplette Ökosystem, die sehr guten Buildtools und vieles mehr verzichten.
Selbst im Bereich LLMs gibt es auf GraalVM basierende Lösungen, die schnelle, lokale Inferenz ermöglichen. Das ist meines Erachtens erheblich viel mehr wert als in anderen Sprachen geschriebene Ketten von HTTP-Calls, um mit LLMs und GPTs zu agieren. Bei der Frage nach Vergleichen sehe ich förmlich, wie du auf den Bereich Data Engineering und Education zielst: Bezüglich Data Engineering wird Java maximal von SQL überholt, nicht von Python. Die Python-Scripts und Notebooks sind schön für explorative Auswertungen, das stimmt, aber damit nehmen sie Java nichts weg. Bezüglich Education: Mit Java 24 ist es einfacher denn jemals zuvor, mit einer einzelnen Main-Methode zu starten, ohne Klassenzeremonie.
Stefan Zörner: Ja. Dafür sorgt schon die schiere Menge an Software, die in Java geschrieben ist und auch heute immer noch insbesondere in großen Unternehmen entsteht. Innovation findet tendenziell woanders statt, aber die Java-Welt greift viele Dinge auf.
Markus Eisele: Das ist gerade im aktuellen Hype rund um künstliche Intelligenz und Python natürlich eine sehr gute Frage. Was ich täglich mit Kunden erlebe, ist, dass es ein jahrelang gewachsenes Vertrauen in die Betreibbarkeit und Qualität von Java-basierten Anwendungen gibt. Die JVM als Runtime und auch die Sprache haben sich konsequent weiterentwickelt und bieten für nahezu alle Anwendungsfälle geeignete und performante Antworten. Dieses Vertrauen müssen sich andere Plattformen erst verdienen. Ich vergleiche das auch gerne mal mit Laufschuhen. Es gibt wahnsinnig gut aussehende, mit allerlei Schnickschnack und tollen Sohlen, aber ganz am Ende kann man erst nach vielen Kilometern dann den Unterschied wirklich ausmachen. Ähnlich sehe ich auch die Zukunft von Java. Vorsichtige Modellpflege mit einem Blick auf die wirklich wichtigen Funktionen unter konsequenter Weiterentwicklung der Laufzeitperformance erhält Java den Vorsprung. Noch für viele Jahre.
Dirk Weil: Ich halte Java weiterhin für sehr relevant und tragfähig. Die mittlerweile recht zügige Weiterentwicklung der Sprache selbst wie auch die breite Unterstützung für Server-Frameworks – Jakarta EE, Spring Boot, Quarkus und so weiter – sind für mich ein starkes Zeichen für ein lebendiges Ökosystem. Das finde ich bei anderen Sprachen nicht in der gleichen Qualität.
Michael Vitz: Wer weiß schon, wie die Welt in 30 Jahren aussieht? Gerade in einer Zeit, in der wir mit KI eine Technologie erleben, die das eine oder andere auf den Kopf stellt, und das sehr rasant. Unter der Annahme, dass Beobachtungen aus der Vergangenheit auch in der Zukunft gelten, gibt es in 30 Jahren sicher noch Java-Anwendungen. Ob diese dann eher den Stellenwert wie heute C oder COBOL haben, vermag ich aber nicht zu sagen. Ich gehe aber davon aus, dass es mit Sicherheit noch Menschen gibt, die dann Geld mit Java verdienen können. In der modernen Softwareentwicklung spielt Java sicherlich heute eine größere Rolle. Die Verbreitung über die letzten Jahre und auch die stete Weiterentwicklung, bei gleichzeitiger hoher Kontinuität und Kompatibilität, machen sich hier bezahlt. Und auch wenn diese deswegen vereinzelt etwas langsamer ist als in anderen Sprachen, braucht sich Java im Feature-Vergleich und vor allem mit dem großen Ökosystem nicht zu verstecken. Die wohl aktuell größten Baustellen der langsameren Startzeit und des höheren Arbeitsspeicherverbrauchs sind bekannt und werden an diversen Stellen angegangen. Insofern bin ich auch hier guter Dinge, dass Java weiterhin eine solide Wahl ist.
Tipps und Wünsche
Welche Tipps kannst du aktuellen Java-Entwicklern geben, um in der sich schnell verändernden Technologielandschaft am Ball zu bleiben und sich mit Java weiterzuentwickeln?
Michael Simons: Lernt kein Java. Lernt stattdessen Grundlagen. Nicht für L33t-Coding-Interviews, sondern für euer Verständnis von Algorithmen und Programmierung. Bevorzugt langweilige und einfache Lösungen gegenüber cleveren Lösungen. Macht das gerne mit Java. Java ist zugänglich. Horrorgeschichten darüber, dass unendlich viele Tools benötigt werden, sind schon lange nicht mehr wahr. Heutzutage kann jede einfache Main-Klasse mit java ausgeführt werden, sie muss noch nicht mal vorher mit javac explizit kompiliert werden. Lasst euch nicht vom Gen-AI-Hype irremachen. Ja, ihr könnt damit schnell Code generieren, aber versteht ihr den auch? Fokussiert euch nicht nur auf Code, sondern auf die Domäne. Das ist am Ende das, was Geld macht. Und vielleicht sollte man sich genau das nicht vom AI-Tool wegnehmen lassen.
Stefan Zörner: Wenn ihr es nicht schon tut, würde ich euch den Kontakt zu den lokalen Java User Groups empfehlen. Gerade die in kleineren Städten sind sehr engagiert und bieten eine tolle Möglichkeit zum Austausch.
Markus Eisele: Ein Thema, nach dem ich oft gefragt werde, von Studierenden genauso wie von erfahrenen Entwicklern. Jeder hat hier seine eigene Methode und Vorlieben. Was ich als besonders wichtig empfinde, ist die Grundeinstellung: am Ball bleiben zu wollen. Sich nicht auf dem Wissen auszuruhen. Wir sind hier alle gefragt, die Zeit zu investieren und die Kenntnisse der Werkzeuge aktuell zu halten. Sicherlich sind die Java Champions [2] eine gute Gruppe von Leuten, die auch regelmäßig auf unterschiedlichen Plattformen die Neuigkeiten kommunizieren. Wer gerne eher „hands-on“ lernt, dem kann ich nur die Devoxx University Days oder natürlich auch die Schulungstage der JavaLand empfehlen. Aber es gibt noch unzählige andere Angebote, aus denen man auswählen kann. In diesem Fall gilt auch hier wie für so vieles Andere: Der Weg ist das Ziel. Entscheidet euch dabei zu bleiben und lernt in eurem Tempo mit den Medien, die ihr bevorzugt. Natürlich dürft ihr auch mir auf Bsky (@myfear.com) oder Mastodon (myfear@mastodon.online) folgen.
Dirk Weil: Die umfangreichen Möglichkeiten können auf den ersten Blick abschreckend wirken, weil man gar nicht weiß, wo man anfangen soll. Da kann ich nur raten, als Einsteiger kleine Schritte zu machen und Dinge, die man nicht braucht, links liegenzulassen. Am besten funktioniert es im Austausch mit erfahrenen Entwicklern. Die kann man in der wirklich gut ausgebauten Landschaft von User Groups und Konferenzen finden – und natürlich auch bei uns als Dienstleister. 😉
Michael Vitz: Wer mich kennt, weiß, dass ich, obwohl ich Java Champion bin, mich nicht auf eine Technologie festlegen lassen möchte. Deswegen würde ich als ersten Tipp geben, sich nicht ausschließlich auf Java zu fokussieren. Es macht sicherlich Sinn, eine Technologie sehr tief zu kennen, aber noch wichtiger ist, zumindest glaube ich das, das Verständnis von generellen Konzepten, die sich dann auch einfach in andere Ökosysteme übertragen lassen. Um dabei am Ball zu bleiben, muss sicherlich jeder für sich eine passende Strategie finden. Meine liegt darin, regelmäßig diverse Quellen, wie Blogs, Newsseiten, Podcasts, YouTube-Channel und Konferenzen, zu konsumieren. Je mehr Erfahrung ich über die Jahre gesammelt habe, umso mehr reicht es mittlerweile primär durch die Überschriften auf dem aktuellen Stand zu bleiben und die konkreten Inhalte nur noch selektiv zu verarbeiten.
Was wünschst du dir für Java in den nächsten fünf bis zehn Jahren und welche Befürchtungen hast du?
Michael Simons: Ich wünsche mir, dass die aktuellen Architekten der Sprache und der JVM, namentlich Brian Goetz, Mark Reinhold, Ron Pressler und viele andere, noch lange dabei bleiben, weiterhin nicht nur unfassbar gut zu lesende JEPs und andere Dokumente veröffentlichen, sondern die Sprache wie bisher pflegen, warten und weiterentwickeln.
Stefan Zörner: Ich mag die aktuelle Entwicklung, einfache Programme einfacher zu machen (Stichwort: „Simple Source Files and Instance Main Methods“). Da fände ich mehr davon schön. Befürchtungen habe ich eigentlich keine, da Java ein lebendiges Ökosystem ist und nicht von einem Unternehmen dominiert wird. Diese Befürchtung hatte ich bei der Übernahme durch Oracle.
Markus Eisele: Ich würde mir wünschen, dass Java weiterhin so unaufgeregt und stabil innoviert, wie es das in der Vergangenheit getan hat. Verlässlichkeit und Performance vor Funktionalität um jeden Preis, mit einem guten Blick auf das, was die Gemeinschaft bewegt. Ich schätze die Arbeit der Java-Architekten und ihren Blick auf die wesentlichen Dinge hier sehr. Danke für euer Engagement und Führung. Meine größte Sorge bleibt, dass irgendwann Zuverlässigkeit gegen Hype getauscht wird. Das wäre ein großer Verlust.
Dirk Weil: Ich wünsche mir, dass Java – und vielleicht umso mehr die Server-Frameworks – mit der Zeit gehen und aktuelle Trends aufnehmen. Gegenwärtig ist es das allgegenwärtige Thema KI, für das schon diverse Lösungen als Java-Bibliotheken oder Ähnliches zur Verfügung stehen. So muss Java auch zukünftige Strömungen in sich aufnehmen. Dann habe ich für die Zukunft von Java keine Befürchtungen!
Michael Vitz: Ich bin da, vermutlich, sehr bescheiden. Da es für mich nicht die große Baustelle gibt, durch die ich mich blockiert fühle, nehme ich jedes neue Feature, das mir dann doch noch hilft, mit Freude an. Sicherlich wäre es super, wenn die schon genannten Punkte der Startzeit und vor allem des Speicherverbrauchs bald deutlich nach unten gehen. Das würde viele Diskussionen im Vergleich zu anderen Sprachen ersparen und würde auch dem ökologischen Fußabdruck helfen und damit indirekt auch finanzielle Ersparnisse erzeugen. Wenn ich jetzt etwas allgemeiner auf Technik schaue, dann müssen wir sicherlich abwarten, ob der aktuelle KI-Hype auch größeren Einfluss auf Programmiersprachen selbst haben wird. Wenn dem so ist, dann könnte es in zehn Jahren auch so sein, dass Code selbst nur noch ein Zwischenschritt, wie heute Bytecode, ist oder wir diesen gar nicht mehr benötigen, weil wir natürlich sprachlich oder grafisch programmieren. Andererseits ermöglicht es uns, Code sehr präzise zu formulieren, was wir möchten. Insofern bleibt die Zukunft, zum Glück, sicherlich spannend.
URL dieses Artikels: https://www.heise.de/-11122817
Links in diesem Artikel: [1] https://www.javaland.eu/de/home/ [2] https://javachampions.org/members.html [3] mailto:rme@ix.de
Zwischen Hype und Realität: Was AI Coding Agents im Entwicklungsalltag tatsächlich leisten, erklärt Julia Kordick von Microsoft.
Coding-Agenten wie GitHub Copilot und der Agentic Mode halten zunehmend Einzug in den Entwicklungsalltag. In dieser Podcastfolge spricht Julia Kordick, Software Global Black Belt bei Microsoft, mit der programmier.bar darüber, warum nicht die reine Codegenerierung, sondern vor allem der richtige Kontext über den Erfolg von AI Coding Agents entscheidet. Im Mittelpunkt steht die Frage, wie sich solche Systeme sinnvoll einsetzen lassen, ohne die Kontrolle über Code und Architektur zu verlieren.
Zwischen Entwicklungsteams und Management
Julia Kordick beschreibt, wie sie in ihrer Rolle die Brücke zwischen Entwicklungsteams und Management schlägt und den Einsatz von AI Coding Agents sowohl in großen Enterprise-Strukturen als auch in Start-ups begleitet. Sie erläutert, wie sich Workflows schrittweise aufsetzen lassen, wie Agenten-Personas definiert werden und wie mehrere Agenten sinnvoll orchestriert werden können.
Abschließend werfen Dennis Becker, Jan Gregor Emge-Triebel und Julia Kordick einen Blick auf die Zukunft der Softwareentwicklung. Sie diskutieren, wie sich Rollen verändern könnten, welche Chancen agentische Systeme bieten und wie Entwickler:innen ihre Expertise einbringen können, um die Zusammenarbeit von Mensch und KI sinnvoll zu gestalten.
Apple erweitert Xcode 26.3 mit KI-Entwicklungsmöglichkeiten. Coding Agents wie Claude Agent von Anthropic und Codex von OpenAI können direkt genutzt werden.
Apple erweitert mit Version 26.3 von Xcode deutlich die Möglichkeiten, mithilfe von Künstlicher Intelligenz zu entwickeln. In einem am Dienstagabend veröffentlichten Release Candidate können in der Entwicklungsumgebung Coding Agents wie Claude Agent von Anthropic und Codex von OpenAI direkt in Xcode genutzt werden. Die neuen Funktionen knüpfen an die Integration von externen Large Language Models (LLMs) in Xcode 26 an, die es immerhin auch schon ermöglichte, Quelltexte automatisch ohne mühsames Copy & Paste an beliebte Chatbots wie ChatGPT und Claude weiterzugeben.
Die bisherige Integration hat aber ihre Grenzen: Modelle können nicht den vollen Kontext einer Anfrage sehen und sie können in vielem auch nicht selbst aktiv werden und müssen den Entwickler darum bitten bzw. ihn instruieren. Für Entwickler war die Coding Intelligence [1] in ihrem jetzigen Ausbaugrad gleichwohl schon eine deutliche Hilfe. Nachdem Apple im Jahr 2024 erst Pläne für ein eigenes LLM in Xcode verfolgt hatte, die jedoch nicht veröffentlicht wurden, stieß der iPhone-Hersteller mit dem neuen Ansatz, externe Modelle zu integrieren, auf der Entwicklerkonferenz WWDC im Juni 2025 auf positive Resonanz [2].
MCP-Unterstützung und viele neue Möglichkeiten
Die Erweiterung in Xcode 26.3 schafft hier ganz neue Möglichkeiten. Apple hat seine Software dahingehend erweitert, dass jeder Agent, der das quelloffene Model Context Protocol (MCP) unterstützt, künftig mit Xcode arbeiten kann. Dadurch ist es KI möglich, auch die Projektstruktur zu untersuchen, Projekteinstellungen zu verändern, testweise einen Build zu erzeugen und automatisierte Tests vorzunehmen. Durch Auswertung von Build Logs kann die KI ihren Code automatisch weiter bauen, bis das Projekt fehlerfrei kompiliert. Auch auf die aktuelle Dokumentation Apples können die Agenten zugreifen, sodass sie besser als bislang auch neue APIs unterstützen sollen.
Die KI-Agenten können auch Bildschirmfotos von Xcode anfertigen, um das zu sehen, was der Entwickler gerade sehen kann. Dies alles soll überdies darauf optimiert sein, den Gebrauch von Token – und damit die Kosten – zu reduzieren.
Installation mit einem Klick
Die Installation ist einfach: Über die Einstellungen können die Agenten mit einem Klick installiert werden. Dort können derzeit schon ChatGPT, Claude oder andere Modelle aktiviert werden. Entwickler müssen also nicht wie zum Beispiel bei Claude Code das Terminal und die Kommandozeile bemühen. Vorgenommene Veränderungen werden in gewohnter Weise mit einer Markierung im Quelltext sichtbar gemacht und sollen sich leicht zurücknehmen lassen.
Xcode 26.3 ist zunächst als Release Candidate für alle Mitglieder des Apple Developer Program verfügbar. Die Veröffentlichung im App Store soll in Kürze erfolgen.
URL dieses Artikels: https://www.heise.de/-11164243
Links in diesem Artikel: [1] https://www.heise.de/news/Xcode-bekommt-KI-Coding-Funktionen-9757272.html [2] https://www.heise.de/news/Analyse-zur-WWDC-2025-Keynote-Apple-will-wieder-gut-aussehen-10437944.html [3] mailto:mki@heise.de
Tesla will viele humanoide Roboter bauen – doch ohne chinesische Zulieferer wird Optimus unbezahlbar. Eine Abhängigkeit mit Folgen.
Tesla OptimusBild:
Tesla
Teslas Roboterprojekt Optimus hat dem Model S und dem Model X den Garaus gemacht – in den USA wird die Fabrikfläche für den Bau der Roboter benötigt, doch ohne chinesische Zulieferer wird der Roboter nicht gebaut werden können.
Tesla will im US-Werk Freemont die Roboterproduktion starten und bis zu einer Million Einheiten Optimus pro Jahr bauen. Die Analyse der Lieferkette zeigt, dass es ohne chinesische Zulieferer nichts wird – die Bauteile kommen alle aus dem Reich der Mitte.
Einem Bericht der South China Morning Post zufolge schloss Tesla Verträge mit Hunderten chinesischen Komponentenherstellern. Wie bei Apple sind es aber nicht einfache Zulieferer. Die Unternehmen sind bereits in die Forschungs- und Entwicklungsphase eingebunden.
Chinesische Unternehmen liefern dem Bericht nach Aktuatoren, Motoren, Getriebe und Kamerasysteme für den Optimus-Roboter. Mehrere chinesische Firmen wurden dem Bericht nach als Partner für die Massenproduktion ausgewählt, darunter Zhejiang Sanhua für Thermalsteuerung, Ningbo Tuofu für Aktuatoren und Everwin für Sensoren.
Der Kostenvorteil, aber auch das Know-How sind der Grund für diese Arrangements. Chinas Einstufung der humanoiden Robotik als strategische Industrie bringt zusätzliche Unterstützung durch Forschungsförderung, Subventionen und Steuererleichterungen.
Die Analyse zeigt: Würde Tesla chinesische Komponenten aus der Lieferkette für den Roboter entfernen, würden die Gesamtkosten von 46.000 auf 131.000 Dollar pro Einheit steigen. Für Tesla, das die Optimus-Kosten auf etwa 20.000 Dollar senken will, gibt es also keine Alternative. Und die Konkurrenz schläft nicht: Der chinesische Hersteller Unitree bietet sein G1-Modell ab 13.500 US-Dollar pro Einheit an.
Elon Musk bezog zu dieser Wettbewerbsdynamik während der Bilanzpressekonferenz Stellung. Er bezeichnete China als Teslas Hauptkonkurrenten im Robotersektor und verwies auf die Stärken des Landes sowohl in der KI-Entwicklung als auch in der Fertigung.
Tesla-Produktion hat Probleme
Musk gab auf der Konferenz auch zu, dass der humanoide Roboter noch nicht die versprochene Produktivität erreiche . Die Produktion liegt weit unter den Ankündigungen, und die Roboter arbeiten nur halb so schnell wie Menschen. Technische Probleme mit den Händen des Optimus 2.5 sowie überhitzende Motoren und schwache Griffstärke verzögern die Massenproduktion.
Ein neues Glasfaser -Netz am Schienenstrang soll Deutschland resilienter machen. Kanzler Merz besuchte dafür Niedax am neuen Standort.
(v.l.n.r.:) Bruno Reufels (Niedax), Kanzler Friedrich Merz, Gordon Schnieder (CDU Rheinland-Pfalz) und Bundesverkehrsminister Patrick SchniederBild:
Niedax/Dieter Klaas
Niedax, ein Hersteller von Kabelverlegesystemen, hat sein Projekt zum Aufbau eines gesicherten Glasfasernetzes entlang von rund 33.000 Kilometern Bahnschiene am 2. Februar 2026 vorgestellt . Partner sind der US-Glasfaserhersteller Corning, das deutsche IT-Systemhaus Bechtle oder Media Broadcast Satellite, ehemals Freenet.
Mit der Eröffnung des neuen Standorts der Niedax Group in Neustadt/Wied-Rahms im Norden von Rheinland-Pfalz auf einer Fläche von 100.000 Quadratmetern sollen bis zu 500 Arbeitsplätze entstehen. Laut Niedax-Chef Bruno Reufels will man mit weiteren Unternehmen die Entwicklung kleiner und mittelgroßer Datenzentren vorantreiben. Bundeskanzler Friedrich Merz (CDU) sagte bei der Eröffnung, "das Vorhaben der Niedax Group, gemeinsam mit ihren Partnern ein resilientes, nachhaltiges und hochleistungsfähiges Infrastruktur-Netz zu schaffen" , sei von "entscheidender Bedeutung" .
Mit Netz 33 hatte Niedax Group im Jahr 2025 ein Tochterunternehmen gegründet, welches das Projekt für ein neues bundesweit zusammenhängendes Glasfasernetz führen soll.
Die erste Teststrecke soll auf 130 Kilometern im Areal Jüterbog-Falkenberg-Wittenberg entstehen. Im Februar und März 2026 sollen die ersten vier Kilometer verlegt werden. AP Sensing soll mit faseroptischer Sensorik die Technologie zur Überwachung der Infrastruktur bereitstellen.
Giga Fiber und seine Projekte
Niedax will selbst nur rund 300 Millionen Euro in das Projekt investieren. Eine gesamte "Investitionssumme von circa zehn Milliarden Euro" nannte Reufels dem Handelsblatt . Die Verträge mit der Bahn seien unterzeichnet, erklärte er.
Bedenklich an dem Vorhaben: Ein solches Projekt für Glasfaser entlang des deutschen Schienennetzes hatte zuvor bereits das Unternehmen Giga Fiber von Lars Diebold fast wortgleich angekündigt , was sich aber wie ein anderes Projekt für 0-Euro-FTTH für Privatkunden bislang als bloße Ankündigung erwiesen hatte. Durch Partner wie Bechtle und Media Broadcast Satellite könnte das Projekt jetzt Substanz gewinnen.
Nur noch bis Sonntag gibt es ein tausendfach verkauftes 100-Watt-Netzteil von Ugreen zum Bestpreis bei Amazon.
Nur bis Sonntag gibt es bei Amazon das 100-Watt-Netzteil Ugreen Nexode X wieder zum Tiefstpreis.Bild:
Erzeugt mit Dall-E; Amazon
Wer unterwegs Smartphone, Tablet und Notebook laden möchte, muss längst nicht mehr mehrere klobige Netzteile einpacken. Moderne Multiport-Ladegeräte versorgen gleich mehrere Geräte parallel – und sparen dabei Platz im Rucksack. Ein besonders gefragtes Modell ist das Ugreen Nexode X 100W (Modell 35038), das sich allein im vergangenen Monat bei Amazon über 2000-mal verkauft hat. Jetzt ist das kompakte USB-C-Netzteil für kurze Zeit im Angebot erhältlich.
Was bietet das Ugreen Nexode X 100W?
Mit nur 7,1 × 4,3 × 3,3 cm zählt das Nexode X zu den kleineren Vertretern seiner Leistungsklasse. Möglich macht das die sogenannte Airpyria-Technologie, die trotz reduzierter Bauform eine hohe Ladeleistung ermöglicht. Das Netzteil bringt dabei lediglich 320 Gramm auf die Waage und liefert trotzdem bis zu 100 Watt, ausreichend, um auch ein Macbook oder Office-Laptop schnell mit Strom zu versorgen.
Unterstützt werden gängige Schnellladestandards wie USB Power Delivery 3.0 und PPS. Laut Hersteller lässt sich etwa ein Samsung Galaxy S24 Ultra in rund 19 Minuten auf 50 Prozent aufladen. Ein Macbook Pro 14 Zoll soll nach 27 Minuten ebenfalls wieder halb voll sein.
Drei Geräte gleichzeitig laden
Das Ugreen-Netzteil ist mit insgesamt drei Anschlüssen ausgestattet:
2× USB-C mit bis zu 100 Watt
1× USB-A mit bis zu 22,5 Watt
Wer mehrere Geräte gleichzeitig anschließt, muss allerdings mit einer automatischen Aufteilung der Leistung rechnen. Bei Nutzung von zwei Ports stehen am USB-C1 bis zu 65 Watt und am zweiten USB-C-Anschluss 30 Watt zur Verfügung. Der USB-A-Port liefert bis zu 22,5 Watt.
Wer alle drei Anschlüsse parallel nutzt, verteilt sich die Leistung wie folgt:
USB-C1: 65 Watt
USB-C2: 18 Watt
USB-A: 18 Watt
Schutz vor Überhitzung und Überspannung
Für die nötige Sicherheit sorgt eine integrierte Steuerungselektronik mit Temperaturüberwachung. Zusätzlich schützt Thermal Guard 2.0 vor Überhitzung und Überspannung – praktisch, wenn mehrere Geräte gleichzeitig geladen werden.
Zum Tiefstpreis bei Amazon
Bei Amazon gibt es das USB-Netzteil Ugreen Nexode X 35038 mal wieder zum Tiefstpreis von nur 30,67 Euro zu kaufen, wie die Keepa-Preischronik verrät. Noch nie gab es dieses 100 Watt leistende USB-Netzteil günstiger zu kaufen. Zwar gibt es dieses Angebot immer mal wieder, doch reicht der Lagervorrat oft nur wenige Tage. Das aktuelle Bestpreis-Angebot gilt nur noch bis Sonntag, den 8. Februar.
Reklame
Ugreen Nexode X USB-C-Ladegerät 100W mit 3 USB-Ladeanschlüssen
Preis, Daten und Fakten zum Ugreen-Nexode-X-Netzteil
Auf kompakten 7,1 cm × 4,3 cm × 3,3 cm bringt der chinesische Hersteller Ugreen beim Nexode-X-35038-Netzteil gleich drei Ladeanschlüsse unter.
Neben einem USB-A-Port sind dies gleich zwei USB-C-Anschlüsse, die maximal 100 Watt leisten.
Praktisch: Selbst wenn an USB-C1 mit 65 Watt ein Laptop oder Macbook schnellgeladen wird, steht am zweiten USB-C-Anschluss mit 30 Watt genügend Power parat, um parallel ein Smartphone mit Strom zu versorgen.
Zum Zeitpunkt der Artikelerstellung verkauft Amazon das Ugreen-Nexode-X-35038-Netzteil für nur 30,67 Euro. Ein Blick in die Keepa-Preishistorie zeigt, dass es dieses USB-Netzteil noch nie günstiger zu kaufen gab. Doch dieses Bestpreis-Angebot gilt nur noch bis Sonntag, den 8. Februar.
Dieser Artikel enthält sogenannte Affiliate-Links. Bei einem Kauf der Produkte über diese Links erhält Golem.de eine kleine Provision. Dies ändert nichts am Preis der Artikel.
Verbessern Sie die Textprüfung von LibreOffice mit LanguageTool als Online-Dienst oder lokale Installation.
In allen Modulen von LibreOffice steht eine ordentliche Rechtschreibprüfung zur Verfügung. Sie nutzt die freie Hunspell-Bibliothek, die unter anderem auch in Firefox und Thunderbird arbeitet. Eine deutlich leistungsfähigere Alternative, die zudem auch Grammatik, Interpunktion und Schreibstil kontrolliert, ist das ursprünglich als kostenloses Open-Source-Projekt gestartete LanguageTool. Mittlerweile wird es von einem kommerziellen deutschen Anbieter auch als Webdienst angeboten, und zwar in einer kostenlosen und einer kostenpflichtigen KI-unterstützten Version.
LanguageTool nutzen Sie entweder über eine Webseite, in die Sie die zu prüfenden Texte per Zwischenablage einfügen, oder über ein Browser-Add-in. Letzteres ist webseitenübergreifend überall da aktiv, wo Sie Texte eingeben. In LibreOffice können Sie LanguageTool zudem parallel oder alternativ zum integrierten Spellchecker einrichten. Wenn Sie dem Onlinedienst keine Inhalte schicken möchten, haben Sie zudem die Möglichkeit, einen LanguageTool-Server lokal zu installieren. Somit verlassen Ihre zu prüfenden Texte nie den eigenen Rechner. Dieser Artikel zeigt alle Möglichkeiten, LanguageTool in LibreOffice zu integrieren.
Die Onlineversion des LanguageTools gibt es in zwei Varianten. Die kostenlose reicht für Standardprüfungen auf Rechtschreib‑, Satzzeichen‑ und Grammatikfehler. Nicht zahlende Nutzer der Onlineversion können Texte nur bis zu einer maximalen Länge von 2000 Zeichen prüfen lassen. Die als Abo buchbare Premium‑Version findet deutlich mehr Fehler, bewertet den Schreibstil und bietet KI‑gestützte Verbesserungsvorschläge. Die Abo-Version kostet bei jährlicher Zahlweise rund fünf Euro pro Monat. Kürzere Abrechnungszeiträume sind signifikant teurer.
URL dieses Artikels: https://www.heise.de/-11121137
Links in diesem Artikel: [1] https://www.heise.de/ratgeber/Besser-texten-mit-Office-Alternativen-LanguageTool-in-LibreOffice-einrichten-11121137.html [2] https://www.heise.de/ratgeber/Quick-Look-aufmotzen-MIt-diesen-Tools-wird-die-macOS-Uebersicht-besser-11146357.html [3] https://www.heise.de/ratgeber/PDF-Formulare-im-Griff-Daten-auslesen-und-verarbeiten-11080661.html [4] https://www.heise.de/ratgeber/Textprojekte-gemeinsam-stemmen-mit-Git-So-gehen-Dokumentationen-und-mehr-11138148.html [5] https://www.heise.de/ratgeber/Quick-Look-ausreizen-So-nutzen-Sie-Apples-Finder-Uebersicht-optimal-11130182.html
Gene bestimmen doppelt so stark über unser Lebensalter wie bisher gedacht – ein Rechenfehler verschleierte das jahrzehntelang.
Welchen Anteil haben unsere Gene daran, ob wir 70 oder 90 Jahre alt [1] werden? Bislang gingen Forscher davon aus, dass dieser Einfluss relativ gering ausfällt. Studien mit Zwillingen kamen auf Werte zwischen 20 und 25 Prozent, einige neuere Untersuchungen sogar nur auf sechs Prozent.
Doch Wissenschaftler des Weizmann Institute of Science in Israel präsentieren nun eine grundlegend andere Einschätzung: Nach ihrer Analyse [2] liegt der genetische Beitrag bei etwa 50 bis 55 Prozent – allerdings nur dann, wenn man bestimmte äußere Einflüsse auf die Sterblichkeit rechnerisch entfernt.
Die Forscher werteten Informationen aus drei umfangreichen skandinavischen Zwillingsregistern aus. Dabei bezogen sie erstmals auch Geschwisterpaare ein, die nach der Geburt in verschiedenen Familien aufwuchsen.
Ben Shenhar, der die Untersuchung leitete, erklärt die Diskrepanz [3] zu früheren Arbeiten so: Man habe lange Zeit angenommen, dass hauptsächlich Umwelt und Lebensweise über die Lebensspanne entscheiden.
Zwei grundverschiedene Wege zum Tod
Die zentrale Erkenntnis der Studie beruht auf einer klaren Trennung: Menschen sterben entweder an inneren oder an äußeren Ursachen.
Zu den inneren zählen Prozesse wie das biologische Altern [4], erbliche Veranlagungen für bestimmte Erkrankungen oder spontane genetische Veränderungen im Laufe des Lebens.
Äußere Ursachen umfassen dagegen Verkehrsunfälle, Gewalteinwirkung, Infektionskrankheiten oder Umweltkatastrophen.
In den Geburtsjahrgängen des späten 19. und beginnenden 20. Jahrhunderts, aus denen viele historische Daten stammen, spielten solche äußeren Faktoren eine deutlich größere Rolle als heute.
Gleichzeitig dokumentierten Standesämter und Behörden die genauen Todesumstände oft nur lückenhaft.
Dadurch vermischten sich beide Kategorien in den Aufzeichnungen – mit dem Ergebnis, dass der genetische Anteil rechnerisch kleiner erschien, als er tatsächlich ist.
Computermodelle schaffen Klarheit
Um dieses methodische Problem zu lösen, entwickelte das Team einen neuartigen Rechenansatz.
Mithilfe mathematischer Sterblichkeitsmodelle simulierten die Wissenschaftler [5] fiktive Zwillingspaare und trennten dabei systematisch die Todesfälle durch natürliche Alterungsprozesse von jenen durch äußere Einflüsse. Die Modelle nutzen die Tatsache, dass mit steigendem Lebensalter innere Faktoren immer dominanter werden.
Zwillingsdaten eignen sich besonders gut für genetische Fragen, weil sie eine natürliche Kontrolle bieten: Eineiige Geschwister teilen ihr komplettes Erbgut, zweieiige nur die Hälfte.
Wachsen sie zudem getrennt auf, lassen sich genetische Effekte von späteren Einflüssen wie Ernährungsgewohnheiten [6], Berufswahl oder Wohnort sauberer unterscheiden.
Die Rechenergebnisse des Teams deckten sich gut mit beobachtbaren Mustern in realen Bevölkerungsdaten.
Ähnlich wie bei der Körpergröße
Die korrigierte Schätzung von rund 50 Prozent rückt die Vererbbarkeit der Lebensdauer in die Nähe anderer körperlicher Eigenschaften.
Auch bei der Körpergröße etwa erklären Gene ungefähr die Hälfte der individuellen Unterschiede. Zudem passt der Wert besser zu Beobachtungen aus der Tierforschung, wo ähnliche Größenordnungen gemessen werden.
Ein Detail aus den Analysen verdeutlicht, wie unterschiedlich stark Erbfaktoren bei verschiedenen Todesursachen wirken: Das Risiko, bis zum 80. Lebensjahr an Demenz [7] zu sterben, hängt zu etwa 70 Prozent von genetischen Faktoren ab – deutlich mehr als bei Herz-Kreislauf-Erkrankungen [8] oder Krebsleiden [9].
Solche Unterschiede zeigen, dass pauschale Aussagen über "die Gene" zu kurz greifen.
Kein Freifahrtschein und kein Schicksal
Was bedeuten diese Zahlen für den Einzelnen? Zunächst einmal: Wenn die Hälfte der Unterschiede in der Lebensdauer auf Gene zurückgeht, bleibt die andere Hälfte für alles andere übrig.
Lebensstil, medizinische Versorgung [10], soziale Umstände [11] und Zufälle spielen weiterhin eine gewichtige Rolle. Außerdem zeigt die Studie ja gerade, wie stark äußere Todesursachen die Statistiken beeinflussen – diese Risiken existieren real und lassen sich durch Verhalten und Gesellschaftspolitik beeinflussen.
Die Forschungsergebnisse liefern also keine deterministische Botschaft, sondern eine genauere Landkarte: Sie zeigen, welche Faktoren in welchem Ausmaß wirken, ohne dass daraus Unabänderlichkeit folgt.
Neue Impulse für die Altersforschung
Für die Wissenschaft ergeben sich konkrete Folgen. Jahrelang hemmte die Annahme niedriger Erblichkeit die Suche nach spezifischen Genvarianten, die mit langem Leben zusammenhängen.
Shenhar formuliert es so: Eine hohe Vererbbarkeit schaffe einen Anreiz, gezielt nach solchen genetischen Varianten zu fahnden, um Alterungsprozesse besser zu verstehen und möglicherweise medizinisch beeinflussen zu können.
Welche Gene konkret den größten Einfluss ausüben und über welche biologischen Mechanismen sie wirken – diese Fragen bleiben vorerst offen. Die aktuelle Arbeit liefert primär eine methodische Korrektur und eine veränderte Ausgangslage für künftige Untersuchungen.
Überprüfung mit modernen Daten geplant
Die Autoren selbst betonen, dass ihre Schlussfolgerungen noch mit zeitgenössischen Datensätzen abgeglichen werden müssen.
Moderne Sterberegister erfassen Todesursachen wesentlich präziser als historische Quellen, sodass sich die Trennung zwischen inneren und äußeren Faktoren direkter vornehmen lässt.
Sollten sich die Ergebnisse bestätigen, würde das nicht nur das wissenschaftliche Verständnis von Alterungsprozessen verändern, sondern könnte auch neue Ansatzpunkte für präventive Gesundheitsstrategien [12] eröffnen.
SpaceX übernimmt xAI per Aktientausch und plant Rechenzentren im Orbit – finanziert durch die Milliarden-Einnahmen von Starlink.
Elon Musk schließt zwei seiner wichtigsten Unternehmen zusammen. Gemeint sind SpaceX und xAI, wobei SpaceX am Montag erklärte, das KI-Startup übernehmen zu wollen. Das neue Unternehmen wird nach Schätzungen von Insidern wohl einen Wert von 1,25 Billionen US-Dollar haben, wie Bloomberg und das Wall Street Journal (WSJ) übereinstimmend berichten.
Der Zusammenschluss erfolgt demnach durch einen reinen Aktientausch. Wer xAI-Anteile hält, erhält dafür SpaceX-Papiere im Verhältnis von etwa eins zu sieben. Pro SpaceX-Anteil werden rund 527 Dollar veranschlagt.
Diese Zahlen gingen aus internen Schreiben an die Belegschaft hervor, während die offizielle Verlautbarung keine Finanzdaten nannte, heißt es im [1]WSJ.
Milliardenschwerer Geldbedarf für KI-Entwicklung
Der zentrale Grund für die Fusion ist der immense Kapitalbedarf von xAI. Wie es bei [2]Bloomberg heißt, verbrennt das Unternehmen pro Monat rund eine Milliarde US-Dollar mit der Entwicklung von Sprachmodellen und des Chatbots Grok.
Mit diesen Anwendungen kämpft xAI um Marktanteile mit anderen etablierten Konkurrenten wie OpenAI und Anthropic – die ebenfalls erhebliche Kapitalmengen verbrennen.
SpaceX verfügt über die nötigen Geldquellen. Das Satellitennetz Starlink mit über 9.000 Einheiten im Orbit wirft inzwischen mehr ab als das klassische Raketengeschäft. Diese Erlöse könnten künftig die teuren KI-Projekte mitfinanzieren.
Zugleich beherrscht SpaceX den Markt für kommerzielle Raketenstarts nahezu vollständig.
Fachleute von Bloomberg Intelligence warnen allerdings, dass die hohen Ausgaben von xAI die Bewertung des Gesamtkonzerns belasten könnten. Als positives Signal werten sie hingegen einen frischen Auftrag vom Pentagon über 200 Millionen Dollar.
Vision von Rechenzentren im Weltraum
Musk rechtfertigt den Schritt mit seiner Idee eines umfassenden Technologieverbunds. Raketen, Satelliten, KI und Kommunikationsdienste sollen zu einem System verschmelzen. In seiner Mitteilung spricht er vom "ehrgeizigsten, vertikal integrierten Innovationsmotor auf (und außerhalb der) Erde".
Der Unternehmer geht davon aus, dass Rechenleistung für KI mittelfristig am günstigsten im All zu haben sein wird. Sonnenenergie direkt aus dem Orbit soll die Stromversorgung sichern. So ließen sich KI-Modelle schneller und umfangreicher trainieren als auf der Erde, argumentiert er.
Konkret beantragte SpaceX Ende vergangener Woche bei der zuständigen Behörde die Erlaubnis für bis zu eine Million zusätzliche Satelliten, berichtet [3]Bloomberg. Sie sollen ein orbitales Netzwerk für KI-Berechnungen bilden.
Experten halten das Vorhaben allerdings für technisch und wirtschaftlich äußerst anspruchsvoll.
Kooperation bestand bereits vor der Fusion
Beide Firmen hatten schon vorher zusammengearbeitet. XAI zählte SpaceX zu seinen ersten Kunden, als es vor etwa zwei Jahren startete. Der Chatbot kam unter anderem im Kundendienst des Starlink-Dienstes zum Einsatz.
Die Verschmelzung reiht sich ein in Musks Strategie, seine verschiedenen Geschäfte zu verknüpfen. Vergangenes Jahr hatte er xAI bereits mit der Plattform X vereint, die er zuvor als Twitter gekauft hatte.
SpaceX steckte bereits zwei Milliarden in xAI. Tesla sagte kürzlich zu, denselben Betrag zu investieren. Die Verflechtungen nehmen also stetig zu.
Börsengang trotz Fusion geplant
SpaceX hält laut Insidern an seinem Plan fest, noch dieses Jahr an die Börse zu gehen. Bis zu 50 Milliarden Dollar könnten dabei eingesammelt werden – ein Rekordwert. In den vergangenen Tagen diskutierten Beteiligte intern über Chancen und Risiken der Fusion im Hinblick auf den anstehenden Börsengang.
Analysten der Bank Wedbush spekulieren im [4]WSJ bereits über einen nächsten Schritt. Sie halten es für denkbar, dass Musk binnen eineinhalb Jahren auch Tesla mit SpaceX zusammenführt.
Zusammengenommen ergäbe sich ein Konzern von etwa 2,8 Billionen US-Dollar Wert. Die Experten sehen darin Musks Ziel, möglichst viel vom KI-Ökosystem unter eigener Kontrolle zu bündeln.
Unklarer Nutzen und technische Risiken
Wie genau SpaceX vom Zusammenschluss profitieren soll, bleibt vorerst offen. Das Raketengeschäft läuft bereits außerordentlich gut, sodass der direkte Mehrwert der KI-Produkte schwer erkennbar ist.
Zudem muss SpaceX bei seiner neuen Großrakete Starship noch Fortschritte vorweisen. Seit 2023 laufen Testflüge, bei denen es wiederholt zu Problemen kam. Bislang brachte das System keine echte Nutzlast in den Orbit.
Ausgerechnet am Tag der Fusionsmeldung trat bei einer Falcon-9-Mission ein technisches Problem auf, nachdem die Satelliten bereits ausgesetzt waren. Die Teams prüfen nun die Ursache, bevor weitere Flüge stattfinden.
URL dieses Artikels: https://www.heise.de/-11164098
Links in diesem Artikel: [1] https://www.wsj.com/tech/elon-musk-says-spacex-has-acquired-xai-038a4072 [2] https://www.bloomberg.com/news/articles/2026-02-02/spacex-is-in-advanced-talks-to-combine-with-xai [3] https://www.bloomberg.com/news/articles/2026-02-02/elon-musk-s-spacex-said-to-combine-with-xai-ahead-of-mega-ipo [4] https://www.wsj.com/livecoverage/stock-market-today-dow-sp-500-nasdaq-02-03-2026/card/will-elon-musk-merge-tesla-with-spacex-after-xai-deal--gDHw1mYlBsrh6a4HOObL
Der neue Haushalt markiert das Ende seiner Reformagenda. Innenpolitisch blockiert, außenpolitisch exponiert – die Unterstützung der Ukraine stößt an Grenzen.
Die blaue Pilotenbrille, mit der Emmanuel Macron zuletzt bei öffentlichen Auftritten auffiel und für Rätselraten sorgte, wirkt wie ein Symbol für die letzte Phase seiner Präsidentschaft. Sie steht weniger für Aufbruch als für Inszenierung. Wo die politische Gestaltungsmacht schwindet, gewinnt das Bild an Bedeutung.
Im April 2027 wird in Frankreich ein neuer Präsident gewählt. Macron darf nach zwei Amtszeiten nicht mehr kandidieren. Was bleibt, ist die Frage nach dem Vermächtnis. Französische Präsidenten wissen um die Macht der Geschichtsbücher – und um die Fallhöhe ihres eigenen Anspruchs. In der geschichtsbewussten Tradition der Fünften Republik entscheidet sich politisches Gewicht nicht nur im Amt, sondern im Rückblick.
Doch innenpolitisch ist der Spielraum des Präsidenten eng geworden. Seit dem Verlust der absoluten Mehrheit 2022 und erst recht nach den Neuwahlen 2024 wirkt Macron wie ein Präsident auf Abruf. Der nun verabschiedete Haushalt ist weniger Ausdruck politischer Stärke als ein Beleg für diesen Machtverlust.
Innenpolitisch hat er kaum noch Gestaltungsmacht. Schon im Sommer 2022 wurde er als "lame duck [1]" bezeichnet. Aktuell fällt die Bezeichnung bei Politico [2] erneut.
Der verabschiedete Haushalt ist weniger ein politischer Erfolg als ein Beleg für diesen Machtverlust.
Ersichtlich ist daran, dass sich dort keines der wichtigen innenpolitischen Vorhaben von Macron wiederfindet. Exemplarisch dafür: Der große Streitpunkt der letzten Jahre, der gekippt wurde, ist die Rentenreform – ein von Macron mit großem Einsatz betriebenes Projekt.
Der Macronismus ist beerdigt: Einziger Überlebender Emmanuel Macron
Das, was ihm in den letzten Monaten seiner Amtszeit noch bleibt, ist das internationale Podium. Innenpolitisch ist er eingehegt, außenpolitisch exponiert.
Dort wird er die gaullistische Tradition fortführen, die sämtliche Präsidenten der 5ten Republik weiterführen: Außenpolitische Leitlinien vorgeben. Wie er schon öfters gezeigt hat, kann er sich da als Stimme gegen die USA und für mehr europäische Souveränität profilieren und wichtige Impulse geben. Inwieweit das Früchte trägt, müssen seine Verbündeten in Europa unter Beweis stellen.
Das neue Budget gibt ihm jedenfalls nicht den Spielraum, um viel Geld auf den Tisch zu legen, um die Ukraine zu unterstützen. Wie wenig er real in den neuen geopolitischen Machtkämpfen zu bewirken vermag, wie eng die Grenzen gezogen sind, zeigen seine Vorschläge für Grönland [3], die keine zählbaren Effekte hatten – außer, dass Macron wichtig für die Bündnispolitik in Europa bleibt. Das immerhin ist kein unwichtiger Punkt.
Die Zerreißprobe – Wie Frankreichs Regierung den Haushalt durchsetzte
Das Budget kam erst nach monatelangem politischem Ringen zustande. Die Wurzeln der Krise liegen in der Parlamentswahl 2024, die Präsident Emmanuel Macron ohne absolute Mehrheit zurückließ.
Seit den von Macron ausgerufenen Neuwahlen im Juni 2024 ist das Land politisch weitgehend blockiert. Eine Linksallianz gewann die meisten Sitze, blieb aber weit von einer Mehrheit entfernt. Das rechte Rassemblement National erhielt die meisten Stimmen und wurde zu einer Kraft, mit der zu rechnen ist. Macrons zentristische Gruppierung verlor Sitze.
Lecornu musste auf den Verfassungsartikel 49.3 zurückgreifen, um das Budget ohne finale Abstimmung im Parlament durchzusetzen. Dabei hatte der Premier dem Parlament ein halbes Jahr zuvor versprochen, dieses als undemokratisch kritisierte Instrument niemals zu nutzen [4].
Die Verabschiedung war nur möglich, weil die Sozialistische Partei die Regierung duldete. Als Gegenleistung machte Lecornu den Sozialisten Konzessionen [5]: mehr Beamtenstellen, mehr Sozialwohnungen und günstigere Uni-Kantinen für einen Euro.
Vor allem aber setzte der Premier Macrons zentrale Rentenreform aus, die das Renteneintrittsalter von 62 auf 64 Jahre anheben sollte. Der sozialistische Abgeordnete Hervé Saulignac [6] sagte, seine Partei habe "ihre Pflicht erfüllt" und "das Schlimmste verhindert".
Die ursprünglichen Ziele für den Haushalt wurden verfehlt. Er wurde mit rund 40 Tagen Verspätung verabschiedet und das Defizitziel von 4,7 Prozent auf fünf Prozent des Bruttoinlandsprodukts aufgeweicht.
Der politische Fokus liegt nun auf der Präsidentschaftswahl 2027. Gabriel Attal, Macrons ehemaliger Premierminister, bestätigte gegenüber französischen Medien, das Budget markiere "das Ende" von Macrons zweiter Amtszeit.
Die Instabilität der Regierung zeigt sich am hohen Verschleiß an Regierungschefs. Lecornu ist der vierte Premierminister in zwei Jahren. Andere Quellen sprechen sogar von fünf Premierministern in zwei Jahren.
Macron selbst scheint die Sinnlosigkeit der Übung nach 18 Monaten parlamentarischer Blockade einzugestehen. Seine Neujahrsansprache am 31. Dezember hatte nicht den gleichen Schwung wie früher. Nur 8,9 Millionen Menschen schalteten ein, 800.000 weniger als im Vorjahr und 1,6 Millionen weniger als bei seiner ersten Neujahrsansprache 2017.
Ungelöste Probleme
Der verabschiedete Haushalt löst die grundlegenden Finanzprobleme nicht. Die Staatsschulden von 3.400 Milliarden Euro werden weiter steigen, laut Fachleuten von 117 auf 118 Prozent des Bruttoinlandsprodukts, so die Frankfurter Rundschau [7]. Kein Wunder, dass es nun in Kommentaren heißt, Frankreich sei nun ein Land sei, "in dem nichts mehr vorankommt – außer die Staatsschuld".
Der Haushalt beruht vor allem auf Steuererhöhungen für einige Großunternehmen, die rund 7,3 Milliarden Euro einbringen sollen. Die Militärausgaben werden um 6,5 Milliarden Euro erhöht, wie die Deutsche Welle berichtete. Macron hat versprochen, die Verteidigungsausgaben zu erhöhen, um einer wachsenden Zahl von Bedrohungen zu begegnen.
Der nächste Konflikt droht bereits. Die Verhandlungen für den Haushalt 2027 dürften kurz vor der Präsidentschaftswahl noch schwieriger werden, berichtet Le Monde [8]. Frankreich müsste einen Abbau des Defizits erreichen, der doppelt so groß ist wie 2026.
Der Ausnahmezustand als Normalfall
Das französische Finanzministerium hat bereits mit der Vorbereitung des Haushalts 2027 begonnen. Technische Konferenzen mit den verschiedenen Ministerien sind zwischen dem 9. Februar und dem 6. März geplant.
Viele Ökonomen halten es für unmöglich, das offizielle Ziel einer Defizitreduzierung im Jahr 2027 zu erreichen. Ein weiteres schwarzes Szenario bleibt in allen Köpfen: ein Parlament, das nicht in der Lage ist, rechtzeitig ein Finanzgesetz zu verabschieden, zum dritten Mal in Folge.
URL dieses Artikels: https://www.heise.de/-11163880
Links in diesem Artikel: [1] https://www.faz.net/aktuell/wirtschaft/verlust-der-parlamentsmehrheit-macron-wird-zur-lame-duck-18115657.html [2] https://www.politico.eu/article/macron-enters-his-lame-duck-era-election-campaigns/ [3] https://de.euronews.com/2026/01/28/gronland-macron-frederiksen-nielsen [4] https://www.fr.de/politik/frankreich-meistert-die-regierungskrise-aber-nicht-seine-staatsschulden-94151088.html [5] https://www.derstandard.de/story/3000000306787/frankreich-meistert-regierungskrise-aber-nicht-die-staatsschulden [6] https://www.theguardian.com/world/2026/feb/02/france-passes-budget-after-wrangling-no-confidence-motions-sebastien-lecornu [7] https://www.politico.eu/article/macron-enters-his-lame-duck-era-election-campaigns/ [8] https://www.lemonde.fr/politique/article/2026/02/03/finances-publiques-apres-les-debats-interminables-sur-le-budget-2026-le-suivant-s-annonce-encore-plus-complique_6665158_823448.html
USB ist überall. Aber das Smartphone lädt schon seit Stunden, die externe Festplatte ist lahm. Habe ich mal wieder ein schlechtes Kabel erwischt?
Update: Das Gerät verfügt über ein Batteriefach für eine AAA-Zelle oder kann per USB-C versorgt werden.
Wer bei sich zu Hause eine Schublade voller USB-Kabel hat – und wer hat das nicht – wird früher oder später auf das Problem stoßen: Sind es reine Ladekabel, können sie Daten und schnelles Video – oder liefern sie die versprochenen 240 Watt? Der Treedix-TRX5-0816-Kabeltester gibt Antworten auf diese Fragen.
Was auch immer eine Schlüsselinterface-Analyse ist... Die englische Menüführung ist aber ok.
(Bild: Treedix)
Der Tester (ca. 50 Euro etwa auf Amazon) prüft gängige Kabeltypen von USB-C, Lightning, Micro-USB (2.0/3.0) bis Mini-USB und zeigt auf einem 2,4‑Zoll‑Farbdisplay übersichtlich an, welche Pins belegt sind. Vorbei die Zeiten, in denen man eine blanke Platine bekam, kommt der Treedix in einem Gehäuse mit integriertem Batteriefach für eine AAA-Batterie oder Akku. Alternativ kann das Gerät auch per USB-C mit Strom versorgt werden.
Besonders interessant für Maker ist der integrierte eMarker‑Chip‑Reader: Er liest die im Kabel verbauten Chips aus und gibt Spannung, Strom, Datenrate und sogar eine geschätzte Kabellänge preis – Informationen, die sonst überhaupt nicht zugänglich sind. Die eingebaute Widerstandsmessung zeigt obendrein, ob ein Kabel qualitativ gut oder eher ein Wegwerfprodukt mit dünnen Stromleitern aus billigem Material ist.
Im Alltag überzeugt das Gerät durch schnelle Messungen und klare Anzeigen. Ganz perfekt ist es nicht: Dual-Channel-Erkennung bei Thunderbolt‑4‑Kabeln beherrscht der Tester aktuell bisher nicht. Treedix arbeitet laut eigener Aussage an einer Firmware-Aktualisierung, die das nachreichen soll – bis dahin eine kleine Einschränkung für wirklich schnelle TB4‑Kabel.
Geeignet ist der Tester nicht für das professionelle Labor – aber genau richtig für alle, die zu Hause, im Makerspace oder beim aktuellen Raspberry‑Pi‑Projekt endlich wissen wollen, was ein USB-Kabel tatsächlich leistet. Ein kleines, praktisches Werkzeug, das am Ende eine Menge Rätselraten spart.
URL dieses Artikels: https://www.heise.de/-11163487
Links in diesem Artikel: [1] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html [2] https://www.heise.de/make [3] mailto:caw@make-magazin.de
Apples Marge speist sich unter anderem aus sehr teuren RAM-Upgrades. Analysten fragen sich, welche Auswirkungen die aktuellen Preissteigerungen haben.
Apple galt bislang als immun gegen die RAM-Inflation: Dank längerfristiger Verträge und Großeinkäufen [1] sowie marktführend hoher Speicheraufpreise dachten viele Beobachter, dass der iPhone-Hersteller vergleichsweise einfach durch die Krise kommt. Das Problem: Je länger sie andauert, desto stärker wird auch der Konzern aus Cupertino tangiert. Teilweise kam es zu einer Vervierfachung der Preise bestimmter DRAM-Sorten [2] innerhalb weniger Monate. Analysen spekulieren nun darüber, wie Apple reagieren wird. Der Konzern denkt offenbar über eine Doppelstrategie nach.
Druck auf Komponentenlieferanten
Zunächst halten Beobachter wie der Bloomberg-Journalist Mark Gurman es für unwahrscheinlich, dass Apple die iPhone-Preise grundsätzlich erhöhen wird. Das heißt: Die Marge könnte schrumpfen. Das wird der Konzernführung unter CEO Tim Cook, der gerade erneut die höchsten Umsätze und Gewinne eines Weihnachtsquartals [3] verkünden durfte, nicht gefallen. Wie sehr die Margen zurückgehen, hängt davon ab, wie lange die Apple zur Verfügung stehenden Stückzahlen ausreichen – beziehungsweise von Altverträgen abgedeckt sind, die noch aus der Zeit vor der RAM-Inflation stammten.
Apple hatte zuletzt eine Bruttomarge über das Gesamtgeschäft von 48 bis 49 Prozent für das laufende Quartal vorhergesagt. Sollte RAM teurer werden, wird Apple parallel versuchen, die Kosten zu reduzieren. Zuletzt schrieb das taiwanische Elektronikfachblatt DigiTimes hierzu, dass Apple eine neuerliche Kostensparrunde eingeleitet [4] habe. Das heißt: In Bereichen, die nicht von der RAM-Inflation erfasst sind, müssen Lieferanten anderer Komponenten „ausgleichen“. Ob sie hier mitziehen, bleibt abzuwarten, doch Apple hat als großer (oder größter) Kunde viel Macht.
Pro-Modelle und Lieferkettenprobleme
Weiterhin scheint Apple an seinem Line-up zu schrauben. Dazu passen diverse Berichte, laut denen Apple in diesem Jahr im September nur Pro-Varianten und das erste Foldable [5] vorstellen wird. Das Standardmodell des iPhone 18 wird hingegen für Frühjahr 2027 erwartet, wenn die RAM-Situation womöglich wieder ganz anders aussieht.
Laut einem Bericht der japanischen Wirtschaftsagentur Nikkei [6] soll das dabei helfen, die Lieferkettenressourcen besser zu managen. Denn RAM ist nicht nur teuer – Apple drohen angesichts der massiven Nachfrage [7] seitens der KI-Unternehmen auch Lieferschwierigkeiten. So ist Apple etwa nicht mehr größter Kunde des Chipfertigers TSMC.
URL dieses Artikels: https://www.heise.de/-11162243
Wer die „Wo ist?“-App auf Sequoia-Macs nutzt, bekommt die AirTags 2 nicht angezeigt. Gleiches gilt für iPhones mit iOS 18.
macOS-User sind wechselresistenter als iPhone-Besitzer: Üblicherweise lassen sie sich vor dem Upgrade auf ein neues Betriebssystem mehr Zeit. Bei macOS 26 dürfte das noch häufiger der Fall sein als üblich, da Apples neues Liquid-Glass-Design [1] umstritten ist. Wer sich nun aber Apples frisch auf den Markt gekommene AirTags 2 [2] kauft, läuft damit in ein Problem: macOS 15 alias Sequoia erkennt die Bluetooth- und Ultra-Wideband-Tracker schlicht nicht. Gleiches gilt auch für iOS 18 und iPadOS 18.
Als wären sie nicht vorhanden
In der für das Auffinden der Geräte (und anderer Apple-Geräte) zuständigen „Wo ist?“-App [3] werden AirTags 2, die man etwa auf einem iPhone mit iOS 26 eingerichtet hat, weggelassen. Sie tauchen unter „Objekte“, wo sie üblicherweise angezeigt werden sollten, nicht auf, nur AirTags 1 werden aufgeführt. Es ist unklar, warum dies so ist – die Positionsdaten werden über den Apple-Account an den Rechner weitergeleitet, Apple hätte also technisch kaum ein Problem, diese Informationen weiterzureichen. Auch ein Update wurde für macOS 15 nicht verteilt, das die „Wo ist?“-App dafür hätte vorbereiten können. Entsprechende Aktualisierungen gab es nur für macOS 26 und watchOS 26 [4].
Möglich ist, dass Apple versucht, mit dieser Inkompatibilität mehr Nutzer zum Upgrade zu bewegen. Dies erinnert auch an bestimmte Funktionen neuer AirPods, die oft erst mit dem neuesten Betriebssystem kompatibel sind. Allerdings lassen sich diese zumindest mit dem Gerät verbinden und grundsätzlich nutzen, was bei den AirTags 2 mit einem Sequoia-Mac gar nicht funktioniert. Das Problem ist unterdessen auch bei iPhones mit iOS 18 und iPads mit iPadOS 18 [5] zu sehen: Hier lassen sich AirTags 2 nicht nur nicht hinzufügen, sondern sie werden ebenfalls nicht in der „Wo ist?“-App angezeigt. Auch hier fehlen sie einfach.
Aktuell kein Workaround
Nun könnte man denken, dass ein Ausweichen in den Browser eine Alternative ist. Schließlich kann man Geräte über iCloud.com/find [6] nach Login mit dem Apple-Account tracken. Allerdings hilft das nichts: Traditionell werden hier nur Macs, iPhones, iPads oder Kopfhörer angezeigt, nicht aber AirTags, obwohl auch das technisch wohl kein Problem wäre.
Um AirTags per Browser auffindbar zu machen, müsste man sie in den Verloren-Modus schicken, um die Positionsdaten dann beispielsweise mit einer Airline [7] zu teilen. Dafür gibt es jeweils passende Links, die aber austimen.
URL dieses Artikels: https://www.heise.de/-11161215
Big Sur, Catalina oder watchOS 6: Apple hat einer Reihe veralteter Systeme ein Update spendiert. Sie lösen ein bestimmtes Problem.
Wer noch immer (sehr) alte Apple-Geräte in Betrieb hat, wird sich in der Nacht zum Dienstag gewundert haben: Diesem Personenkreis wird unter Umständen erstmals seit Jahren wieder ein Betriebssystem-Update angeboten. Der Grund: Wichtige Zertifikate laufen ab, die zentrale Systemprozesse schützen beziehungsweise ermöglichen. Mit den Aktualisierungen werden diese erneuert, sonst ändert sich nichts.
Bis runter auf die Apple Watch Series 1
Ohne die Updates funktionieren unter anderem iMessage und FaceTime nicht, aber auch die generelle Aktivierung der Systeme bei einem Neuaufsetzen. Beim Mac bringt Apple macOS Big Sur auf Version 11.7.11, bei macOS Catalina (10.15.8) wird ein Security-Update 2026-001 nachgereicht, das allerdings neben den neuen Zertifikaten keine sicherheitsrelevanten Fehlerbehebungen enthält. Bei der Apple Watch gibt es watchOS 6.3.1, 9.6.4 und 10.6.2 zum Download. Damit bekommt selbst die Apple Watch Series 1 noch die passenden Zertifikate.
Schließlich hat Apple auch noch iOS 16.7.14 und iPadOS 16.7.14 veröffentlicht. Beide dienen dazu, dass iPhone X, iPhone 8 und iPhone 8 Plus weiterhin Notrufe in Australien absetzen können, das Update für die Altgeräte behebt einen technischen Fehler. Dieser sollte eigentlich bereits in iOS 16.7.13 behoben sein, doch dieses Update aus der vergangenen Woche sorgte nur für mehr Probleme, weshalb Apple es zurückgezogen hat. Was genau die iPad-Version bringt, blieb zunächst unklar.
Allerdings enthalten die alten Betriebssysteme allesamt zahlreiche ungepatchte Sicherheitslücken. Man sollte solche Geräte also, wenn möglich, nicht mit Internetverbindung betreiben, um Angriffe zu vermeiden. Apple pflegt stets nur das jüngste Betriebssystem mit allen behobenen Sicherheitslücken, die Vorgängerversion wird zwar mit Updates versorgt, erhält aber eben auch nicht alle Patches [2]. Noch ältere Systeme werden gar nicht mehr gepflegt.
URL dieses Artikels: https://www.heise.de/-11163524
Links in diesem Artikel: [1] https://www.heise.de/news/Update-fuer-iOS-und-watchOS-macht-Geraete-fuer-neue-AirTags-fit-11154918.html [2] https://www.heise.de/meinung/Kommentar-Apple-betreibt-bei-Updates-Scheinsicherheit-11097267.html [3] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html [4] https://www.heise.de/mac-and-i [5] mailto:bsc@heise.de
Der Epic Games Store baut seinen Launcher um und bietet weitere Gratis-Spiele. Store-Chef Steve Allison spricht außerdem über die Pläne auf Konsolen.
Das Ökosystem von Epic GamesBild:
Epic Games
Der Epic Games Store hat 2025 bei Drittanbieter-Spielen einen neuen Höchststand erreicht. Laut dem aktuellen Year in Review stieg der Umsatz mit Third-Party-Titeln um 57 Prozent auf rund 400 Millionen US-Dollar. Im Vorjahr hatte Epic hier noch rund 217 Millionen US-Dollar ausgewiesen.
Besonders bemerkenswert ist das Wachstum vor dem Hintergrund, dass immer mehr große Spiele ihre eigenen Bezahlsysteme im Store nutzen. Inzwischen entfallen rund 35 Prozent der Spielzeit bei Drittanbietern auf Titel, bei denen Epic keine In-App-Umsätze abrechnet.
Dazu zählen große Live-Service-Spiele wie Valorant, Marvel Rivals oder auch Sporttitel von Electronic Arts. Diese Einnahmen tauchen in der offiziellen Statistik nicht auf, bremsen also rechnerisch sogar das ausgewiesene Wachstum.
Trotzdem legte auch die Nutzung zu. Knapp 2,78 Milliarden Stunden verbrachten die Spieler 2025 in Third-Party-Games – ein Plus von vier Prozent. Insgesamt erreichte der Epic Games Store auf dem PC zeitweise 78 Millionen monatlich aktive Nutzer und verzeichnete wachsende Ausgaben über ein zunehmend breites Spieleangebot hinweg.
Ein zentraler Wachstumstreiber bleibt das Free-Games-Programm. Im vergangenen Jahr verschenkte Epic 100 teils hochkarätige Spiele wie Hogwarts Legacy oder The Callisto Protocol.
77 Prozent dieser Titel erreichten während der Gratiswoche neue Rekorde bei der Anzahl gleichzeitig aktiver Spieler. Gleichzeitig zeigte sich ein deutlicher Halo-Effekt auf anderen Plattformen: Auf Steam stiegen die Spielerzahlen der betroffenen Titel im Schnitt um rund 40 Prozent, solange die Spiele im Epic Games Store kostenlos verfügbar waren.
Epic Games versteht das Programm nach eigenen Angaben längst nicht mehr nur als Werbung für seinen Store, sondern als wichtiges Marketinginstrument, das Reichweite, Bindung und Aufmerksamkeit für Entwickler schafft.
Parallel investiert Epic massiv in die technische Basis und neue Vertriebsmodelle. Der Launcher auf dem PC wird derzeit komplett neu aufgebaut. Künftig sollen Ladezeiten deutlich sinken, der Ressourcenverbrauch reduziert und die Bedienung insgesamt spürbar schneller werden. Die Veröffentlichung der neuen Architektur ist für die kommenden Monate geplant.
Zudem will Epic die Reichweite von Fortnite stärker für den Store nutzen. Über spezielle Aktionen erhalten Käufer bestimmter Spiele kosmetische Inhalte in Fortnite, was in ersten Tests zu teils extremen Umsatzsteigerungen geführt haben soll. Dieses Programm soll 2026 deutlich ausgeweitet werden.
Hinzu kommen neue Social-Funktionen wie plattformübergreifender Text- und bald auch Voice-Chat sowie der weitere Ausbau des mobilen Epic Games Store. Auf iOS startet Epic in Japan und Brasilien, begleitet von neuen Self-Publishing-Tools, die den Katalog schneller wachsen lassen sollen.
Vor diesem Hintergrund sprach Golem mit Steve Allison, General Manager des Epic Games Store, über die Zahlen, die mobile Expansion und die langfristige Ausrichtung der Plattform.
Golem: Der Umsatz mit Drittanbieter-Spielen ist in einem Jahr um 57 Prozent gewachsen, das für die Branche insgesamt nicht besonders stark war. Was hat dieses Wachstum angetrieben?
Steve Allison: Ein wichtiger Faktor war Epic Rewards, das wir 2023 eingeführt haben und das inzwischen Wirkung zeigt. Wir haben außerdem mit zeitlich begrenzten Boosts experimentiert, bei denen Spieler besonders attraktive Rückvergütungen bekommen konnten.
Dazu kamen die ersten Tests mit Fortnite-Partnerschaften, die den Verkauf von Spielen im Store spürbar angeschoben haben. Und schließlich haben einige große Entwickler unsere Plattform stärker in ihr Marketing eingebunden und gezielt auf den Epic Games Store verwiesen – mit sehr guten Ergebnissen.
Golem: Der Epic Games Store ist inzwischen auch auf mobilen Plattformen verfügbar. Was waren die wichtigsten Lehren aus dem bisherigen Rollout?
Allison: Kurz gesagt: Es ist schwierig. Es gibt nach wie vor viele Hürden, vor allem in Europa. Aber Epic ist dafür bekannt, neue Wege zu gehen und sich durch diese Herausforderungen durchzuarbeiten.
Wir haben mittlerweile fast 50 Millionen Downloads der mobilen Apps erreicht und werden weiter stark investieren. In der ersten Jahreshälfte kommen Self-Publishing-Tools für Mobile, so dass wir nicht mehr alles kuratieren müssen. Das wird den Katalog deutlich schneller wachsen lassen.
Golem: Gibt es Unterschiede bei der Einführung in Japan und Brasilien im Vergleich zu Europa?
Allison: Wir folgen dem gleichen Playbook wie in Europa. Die Rahmenbedingungen und Konditionen sind je nach Region unterschiedlich, aber das Prinzip bleibt gleich. Wir gehen in den Markt, arbeiten eng mit Entwicklern zusammen und sorgen dafür, dass ihre Inhalte verfügbar werden.
Golem: Viele Spieler würden den Epic Games Store gern auch auf Konsolen sehen. Gibt es dazu konkrete Pläne?
Allison: Wir würden das sehr gerne – und Tim Sweeney übrigens auch. Wir wissen, dass es Teil der Vision von Xbox für die nächste Konsolengeneration ist, PC-Stores wie Steam oder den Epic Games Store auf der Konsole zuzulassen. Solange das der Fall ist, planen wir definitiv, dort präsent zu sein.
Golem: Die kostenlosen Spiele sind nach wie vor ein Markenzeichen des Stores. Wird sich an dem Programm etwas ändern?
Allison: Aus unserer Sicht ist das Programm im Grunde unser Marketingbudget. Der Einfluss auf die Nutzerbindung ist enorm – wir liegen im Schnitt bei über 72 Prozent Retention. Dazu kommt jede Woche redaktionelle Berichterstattung, die Sichtbarkeit und SEO-Effekte bringt. Ich sehe keinen Grund, daran in absehbarer Zeit etwas zu ändern.
Golem: Wie stehen Sie zu Spiele-Abos wie Game Pass?
Allison: Wir unterstützen Abos bereits – zum Beispiel EA Play, das wir technisch mit aufgebaut haben. Wir wären sehr froh, wenn Microsoft Game Pass für PC in den Epic Games Store bringen würde, und genauso offen sind wir für andere Abo-Modelle. Wir sprechen dazu regelmäßig mit den Anbietern.
Bild 1/1: Kennzahlen Epic Games Store (Grafik: Epic Games)
Golem: Die Hardwarepreise im PC-Bereich steigen, etwa bei Speicher oder Grafikkarten. Könnte das das Wachstum von PC-Plattformen bremsen?
Allison: Ich glaube nicht. Als wir gestartet sind, hatte Steam etwa sechs bis acht Millionen monatlich aktive Nutzer, heute sind es rund 140 Millionen. Wir selbst liegen inzwischen ebenfalls bei sechs bis acht Millionen im Schnitt. PC-Gaming wächst also sehr stark.
Es gibt zwar Veränderungen in der Branche, aktuell sehen wir eine Verschiebung hin zu PC und Mobile, vielleicht zulasten der Konsolen. Höhere Hardwarepreise könnten den Kauf neuer PCs etwas verlangsamen, aber den Konsum von Spielen sehe ich davon kurzfristig nicht betroffen.
Die GPUs sind seit Jahren sehr leistungsfähig. Teilweise stärker als die aktuellen Konsolen. Wie sich das mit der nächsten Konsolengeneration entwickelt, bleibt abzuwarten, aber insgesamt steht PC-Gaming aus meiner Sicht sehr gut da.
Der Heizlüfter von Dreo setzt auf leise Keramiktechnik, Thermostat und Sicherheitsfunktionen und fällt derzeit unter die 50-Euro-Marke.
Heizlüfter von Dreo für nur 46,74 EuroBild:
amazon.de/dreo
Wenn es um kompakte Heizgeräte geht, sind die Erwartungen meist klar: Es soll schnell warm werden, die Bedienung unkompliziert sein und das Ganze darf weder laut noch nervig wirken. Genau in diesem Spannungsfeld positioniert sich der Heizlüfter von Dreo. Laut Hersteller ist er nicht als brachiale Zusatzheizung gedacht, sondern als gezielt einsetzbares Gerät, das Wärme dort liefert, wo sie gebraucht wird, ohne großes Aufsehen.
Wärme, die nicht lange braucht
Im Inneren arbeitet ein Hyperamics-PTC-System mit 1.500 Watt Leistung. Das bedeutet vor allem eines: kurze Reaktionszeit. Unterstützt wird das durch ein neues Wärmetrichter-Design, das die warme Luft weiter und gleichmäßiger im Raum verteilen soll als bei klassischen Heizlüftern. Dreo spricht von einer bis zu 200 Prozent größeren Reichweite gegenüber klassischen Heizlüftern, bei denen sich die warme Luft weniger weit im Raum verteilt. Der Ansatz ist dabei eher funktional als spektakulär. Statt punktueller Hitze direkt vor dem Gerät soll sich die Wärme spürbar im Raum verteilen.
Heizlüfter haben nicht den besten Ruf, wenn es um Sicherheit geht. Dreo versucht, dieses Thema möglichst nüchtern zu lösen. Laut Hersteller kommt ein verbesserter Neigungssensor zum Einsatz, der das Gerät bei einem Umkippen zuverlässig abschaltet. Hinzu kommen flammhemmende Materialien nach V0-Standard sowie ein integrierter Überhitzungsschutz. Ergänzt wird das durch einen Sicherheitsstecker. Das Ergebnis ist ein Sicherheitskonzept, das im Hintergrund arbeitet und keine permanente Aufmerksamkeit einfordert.
Temperatur mit etwas Feingefühl
Statt einfacher Stufen setzt Dreo auf eine feinere Regelung. Der verbaute NTC-Chipsatz erlaubt laut Hersteller Temperatureinstellungen zwischen 5 und 35 Grad Celsius in Ein-Grad-Schritten. Das verändert die Nutzung spürbar. Der Heizlüfter läuft nicht dauerhaft auf hoher Leistung, sondern hält eine eingestellte Zieltemperatur möglichst konstant. Das wirkt kontrollierter und vermeidet unnötige Leistungsspitzen.
Ein Punkt, der bei Heizlüftern schnell unterschätzt wird, ist die Lautstärke. Dreo gibt hier lediglich 34 dB an. Möglich machen soll das ein bürstenloser Gleichstrommotor in Kombination mit einem Winglet-Lüfterdesign, das Luftverwirbelungen reduziert. Laut Hersteller entsteht so ein gleichmäßiger Luftstrom, der akustisch im Hintergrund bleibt und nicht dauerhaft präsent ist.
Zur Ausstattung gehören mehrere Heizmodi, darunter Leistungsbetrieb, ECO-Modus und ein reiner Ventilatorbetrieb. Ergänzt wird das durch einen 12-Stunden-Timer, eine Kindersicherung, eine Speicherfunktion sowie einen integrierten Tragegriff. Auch das überarbeitete Bedienfeld mit weißer Schrift auf schwarzem Hintergrund ist klar gestaltet und gut ablesbar. Die Stromversorgung erfolgt über AC 220 bis 240 Volt bei 50 Hertz.
Der Heizlüfter von Dreo ist bei Amazon momentan im Angebot für 46,74 Euro erhältlich. Er überzeugt außerdem nicht nur mit einer starken 4,6-von-5-Sterne-Bewertung, sondern ist auch der Bestseller unter den Elektroheizkörpern . Da es sich hier um ein befristetes Angebot handelt, sollte bei Interesse schnell gekauft werden.
Reklame
Dreo Energiesparender Heizlüfter, 34 dB Leiser 1500W Elektrischer PTC Keramik, Thermostat, Überhitzungs- & Kippschutz, 12 Std. Timer, Elektroheizung für Räume Schlafzimmer, Atom 316, Silber
Dieser Artikel enthält sogenannte Affiliate-Links. Wenn Sie die Produkte über diese Links kaufen, erhält Golem eine kleine Provision. Dies hat keinen Einfluss auf den Preis der Artikel.
Großes oder kleines Auto, mehr Sichtbarkeit: Garmin bringt eine neue Version seines Radar-Warners für Radfahrer.
Varia Rearvue 820 StVZO von GarminBild:
Garmin
Wer sich an Radar beim Radfahren gewöhnt hat, möchte das nicht mehr missen. Gerade auf Landstraßen mit viel Verkehr ohne extra Radspur fühlt es sich viel entspannter und sicherer an, wenn man früh und zuverlässig sieht, ob ein Auto folgt.
Garmin legt mit dem Varia Rearvue 820 StVZO nun eine neue Generation seines kombinieren Rücklicht- und Radarsystems vor, das nicht nur warnt, sondern noch mehr Übersicht und Sichtbarkeit verspricht.
Das Varia Rearvue 820 StVZO ergänzt das rückwärtige LED-Rücklicht mit einem Radarsystem, das herannahende Fahrzeuge bis zu 175 Meter entfernt erkennt und sowohl auf kompatiblen Edge-Fahrradcomputern als auch auf Garmin-Smartwatches oder in der Varia-App am Smartphone visuell anzeigt, wie nah und wie groß ein Auto ist.
Auch der Überholabstand wird grafisch dargestellt, was vor allem bei schnellen Autos und Lastwägen ein zusätzliches Sicherheitsgefühl vermitteln soll.
Garmin Varia Rearvue 820 StVZO: Verfügbarkeit und Preis
Gegenüber früheren Varia-Modellen ist die Sichtbarkeit des Rücklichts deutlich gesteigert worden: Garmin gibt bis zu 350 Meter Entfernung an, was sowohl bei Tageslicht als auch bei Dämmerung und Nacht für andere Verkehrsteilnehmer besser erkennbar sein soll.
Der integrierte Akku bietet laut Garmin mit aktiviertem Radar bis zu 16 Stunden Laufzeit, im reinen Radar-Modus sogar bis zu 30 Stunden, so dass auch längere Ausfahrten ohne Nachladen möglich sein sollten.
Ein weiterer Vorteil beim Rearvue 820 ist der nun verbaute USB-C-Anschluss zum Laden des Akkus – bei den bislang verfügbaren Geräten kam eine Micro-USB-Schnittstelle zum Einsatz.
Das System lässt sich an nahezu jeder Sattelstütze befestigen und bleibt dank STVZO-Zulassung auch in Deutschland im öffentlichen Straßenverkehr einsetzbar. Der Garmin Varia Rearvue 820 StVZO ist ab sofort für 300 Euro verfügbar.