Google Android-Bugdroid vor Schloss-Symbol.
(Bild: Primakov/Shutterstock.com)
Es sind wichtige Sicherheitsupdates für verschiedene Androidversionen erschienen. Es gibt bereits Attacken.
Derzeit haben es Angreifer auf Geräte mit Android 13, 14, 15 und 16 abgesehen und nutzen zwei Sicherheitslücken aus. Sicherheitspatches stehen für ausgewählte Smartphones und Tablets bereit.
Seit Juli dieses Jahres patcht Google monatlich nur noch besonders gefährliche Schwachstellen [1]. Die verbleibenden Updates werden seitdem quartalsweise veröffentlicht. Dementsprechend gibt es im Vergleich zum November [2] in diesem Monat jede Menge Sicherheitspatches.
Wie Google in einem Beitrag mitteilt [3], nutzen Angreifer derzeit zwei Lücken (CVE-2025-48572 „hoch“, CVE-2025-48633 „hoch“) aus. In welchem Umfang das geschieht, ist derzeit nicht bekannt. Google schreibt von „begrenzten und gezielten“ Attacken.
Über die erste Schwachstelle können sich Angreifer der knappen Beschreibung zufolge höhere Nutzerrechte verschaffen. Über die zweite Lücke können Informationen leaken. Wie die Angriffe ablaufen, ist derzeit unklar.
Weiterhin warnen die Entwickler vor einer „kritischen“ Schwachstelle (CVE-2025-48631) in der Framework-Komponente von Android 13, 14, 15 und 16. Weitere Lücken erlauben unter anderem DoS-Attacken.
Zusätzlich haben die Entwickler Schwachstellen im Kernel und System geschlossen. Auch Komponenten von etwa Arm und Qualcomm haben Sicherheitsupdates bekommen. Davon sind unter anderem die Grafikkomponente Mali und der Bootloader betroffen. Besitzer von noch im Support befindlichen Geräten sollten in den Einstellungen sicherstellen, dass eins der Patch-Levels 2025-12-01 oder 2025-12-05 installiert ist.
Neben Google veröffentlicht unter anderem noch Samsung regelmäßig Patches für bestimmte Geräte (siehe Kasten).
URL dieses Artikels:
https://www.heise.de/-11099576
Links in diesem Artikel:
[1] https://www.heise.de/news/Schlecht-fuer-Custom-ROMs-Google-aendert-Android-Sicherheitspatch-Strategie-10645581.html
[2] https://www.heise.de/news/Patchday-Kritische-Schadcode-Luecke-in-Android-13-14-15-16-geschlossen-11039341.html
[3] https://source.android.com/docs/security/bulletin/2025-12-01?hl=de
[4] https://support.fairphone.com/hc/en-us/articles/360048139032-Fairphone-OS-releases-for-FP3-FP3-
[5] https://support.fairphone.com/hc/en-us/articles/4405858220945-Fairphone-4-OS-Release-Notes
[6] https://consumer.huawei.com/de/support/bulletin/
[7] https://de-de.support.motorola.com/app/software-security-update/g_id/7112
[8] https://www.hmd.com/en_int/security-updates
[9] https://security.oppo.com/en/mend
[10] https://security.samsungmobile.com/securityUpdate.smsb
[11] https://xpericheck.com/
[12] https://support.google.com/pixelphone/answer/4457705#pixel_phones&nexus_devices
[13] https://security.oneplus.com/en/home
[14] https://aktionen.heise.de/heise-security-pro?LPID=39555_HS1L0001_27416_999_0&wt_mc=disp.fd.security-pro.security_pro24.disp.disp.disp
[15] mailto:des@heise.de
Copyright © 2025 Heise Medien
Alle Details zur Störungsmeldung ansehen Eigene Internetstörung melden
Alle Details zur Störungsmeldung ansehen Eigene Internetstörung melden
Alle Details zur Störungsmeldung ansehen Eigene Internetstörung melden

Mit Drohnen kann man selbst zum Piloten werden und die Welt aus der Vogelperspektive betrachten. Allerdings sind viele Drohnen nicht gerade günstig. Vor allem Markenmodelle können schnell teuer werden. Wer sich für die Drohnenfliegerei interessiert und direkt voll einsteigen möchte, gibt womöglich viel Geld aus, nur um nach den ersten Flügen festzustellen, dass doch die Zeit fehlt, die Umgebung ungeeignet ist oder das Interesse schneller abebbt als gedacht.
Besser ist es daher, erst einmal eine Drohne zum kleinen Preis auszuprobieren. Eine dieser preiswerten Optionen ist die Chubory F89. Bei Amazon gibt es sie aktuell mit 34 Prozent Rabatt auf die unverbindliche Preisempfehlung von 129,99 Euro. Damit kostet sie derzeit nur 85,49 Euro.
Mit einem Gewicht von unter 249 Gramm fällt die Chubory F89 in die Kategorie der kleinen Freizeitdrohnen. Für deren Nutzung ist zwar kein EU-Drohnenführerschein erforderlich, eine Registrierung beim Luftfahrt-Bundesamt ist jedoch Pflicht. Die technische Ausstattung wirkt auf den ersten Blick umfangreich: Das Gerät verfügt über bürstenlose Motoren, die leiser, langlebiger und stabiler arbeiten als einfache Bürstenmotoren. Drei mitgelieferte Akkus sollen gemeinsam eine Flugzeit von 60 Minuten ermöglichen. Realistisch dürfte die Drohne jedoch pro Akku nur etwa sechs bis neun Minuten in der Luft bleiben, so dass sich eine Gesamtflugzeit von ungefähr 20 bis 27 Minuten ergibt. Das entspricht dem üblichen Standard in dieser Preisklasse.
Auch die Angaben zur Kamera verdienen einen genaueren Blick. In der Herstellerbeschreibung ist von einer 4K-UHD-Kamera die Rede, und es wird Bildmaterial verwendet, das professionelle Aufnahmen suggeriert. Bei günstigen Modellen dieser Art handelt es sich jedoch häufig um hochgerechnete Fotoauflösungen oder theoretische Angaben. In der Praxis dürfte die Videoauflösung eher bei 720p oder 1080p liegen. Eine mechanische Stabilisierung ist wohl nicht verbaut.
Das hätte zur Folge, dass die Bewegungen der Drohne deutlich sichtbar wären und Landschaften oder Motive nicht die Bildschärfe erreichen würden, die in den Werbegrafiken suggeriert wird. Eine zusätzliche Unterkamera dient der optischen Flusspositionierung. Diese kann in hellen und kontrastreichen Umgebungen für stabileres Schweben sorgen, in schwachem Licht oder über homogenen Flächen jedoch an Genauigkeit verlieren.
Die Drohne soll außerdem über Funktionen wie Follow Me, Gestensteuerung, Wegpunktflug und automatische Höhenhaltung verfügen. Diese Features sind zwar typisch für Einsteigermodelle, arbeiten jedoch meistens stark vereinfacht. Auch GPS ist nicht integriert.
Der vom Hersteller angegebene Steuerbereich von 800 Metern scheint ebenfalls zu hoch gegriffen. Solche Reichweiten werden in der Regel nur unter idealen Laborbedingungen erzielt. In der europäischen Praxis, insbesondere bei der Bildübertragung per Smartphone-WLAN, dürften stabile Verbindungen eher im Bereich von 50 bis 120 Metern liegen. Zudem ist der rechtliche Rahmen zu beachten. Drohnen müssen stets in Sichtweite geflogen werden, so dass größere Entfernungen ohnehin nicht zulässig sind.
Zusammengefasst bietet die F89 solide Grundfunktionen für Anfänger: Sie ist leicht, lässt sich einfach steuern und verfügt über eine Start- und Landefunktion per Knopfdruck sowie eine grundlegende Stabilisierung. Die Drohne könnte für erste Flugversuche und das Kennenlernen des Hobbys geeignet sein. Die werblichen Angaben sollten jedoch mit Vorsicht betrachtet werden. Eine hochwertige Videoqualität, echte 4K-Aufnahmen, eine stabile Reichweite oder verlässliche automatische Flugmodi wird das Gerät wohl nicht bieten.
Am Ende entscheidet der eigene Anspruch. Für 85,49 Euro könnte die Chubory F89 eine Möglichkeit sein, erste Erfahrungen zu sammeln, ohne viel Geld auszugeben. Wer hingegen langfristig Wert auf Bildqualität und Zuverlässigkeit legt, ist mit einem höherwertigen Modell besser beraten – das dann aber auch mehr kostet.
Reklame
800 Meter Reichweite faltbare Drohne mit Kamera für Anfänger, 60+ Min. Flugzeit, WiFi FPV Quadrocopter mit 4K HD-Kamera, bürstenlosem Motor, Auto-Hover, Auto-Follow (3 Akkus)
Einsteigerdrohne zum Sparpreis sichernVon Chubory gibt es noch viele weitere Drohnen zu entdecken. Eine Übersicht liefert der Amazon-Store von Chubory . Für den Vergleich verschiedener Drohnen empfiehlt sich die Bestsellerliste Drohnen . Hier sind zahlreiche Modelle aufgelistet, sortiert nach ihrer aktuellen Beliebtheit bei Amazon-Kunden.
Dieser Artikel enthält sogenannte Affiliate-Links. Bei einem Kauf der Produkte über diese Links erhält Golem.de eine kleine Provision. Dies ändert nichts am Preis der Artikel.

OpenAI hat eine Beteiligung an der Private-Equity-Gesellschaft Thrive Holdings erworben. Wie das Unternehmen in einem Blogbeitrag mitteilt , wolle man Unternehmen, die zu Thrive Holdings gehören, Mitarbeiter, KI-Modelle, Produkte und Dienstleistungen bereitstellen.
Die Financial Times führt aus , dass es sich bei Thrive Holdings um ein von Thrive Capital gegründetes Unternehmen handelt. Thrive Capital ist einer der größten Geldgeber von OpenAI und investierte Ende 2024 mehr als eine Milliarde US-Dollar in das KI-Unternehmen.
Weiter heißt es, dass OpenAI mit der Beteiligung sein Geschäft mit Business-Kunden ausbauen möchte. Im Blogbeitrag schreibt das Unternehmen, man möchte sich auf die beiden wichtigsten Sektoren von Thrive Holdings konzentrieren, welche sich mit IT- und Buchhaltungsdienstleistungen befassen.
In diesen "volumenstarken, regelbasierten und workflowintensiven Prozessen kann die Plattform von OpenAI unmittelbare Vorteile bieten" , so das Unternehmen. Mithilfe von KI wolle man dazu beitragen, die "Geschwindigkeit, Genauigkeit und Kosteneffizienz zu steigern und gleichzeitig die Servicequalität zu verbessern" .
Von einer anonymen Quelle will die Financial Times erfahren haben, dass OpenAI kein Geld für die Beteiligung ausgegeben hat, sondern diese von Thrive Holdings im Gegenzug für den Zugang zu den KI-Produkten des Unternehmens erhielt. Außerdem soll OpenAI aus den zukünftigen Erträgen von Thrive Holdings eine Vergütung erhalten.
Im Rahmen der Vereinbarung erhält OpenAI zudem Zugriff auf die Unternehmensdaten von Thrive Holdings und die Erlaubnis, diese für das Training von KI-Modellen zu verwenden. Der CEO von Thrive Holdings ist Joshua Kushner, der jüngere Bruder des Schwiegersohns von US-Präsident Donald Trump.
OpenAI steht zunehmend in der Kritik, da die Ausgabenverpflichtungen die Einnahmen weit überschreiten. CEO Sam Altman entgegnete Kritikern jedoch, dass es nur wenig Möglichkeiten gäbe, woran sein Unternehmen scheitern könnte .

Nervliche Entlastung beginnt im Haushalt oft damit, dass Kleinigkeiten automatisch erledigt werden: eine Lampe, die abends zu einer ganz bestimmten Uhrzeit leuchten soll, ein Ventilator, der nur während der wärmsten Stunden im Sommer laufen soll, oder eine Lichterkette, die pünktlich den Weihnachtsbaum erhellt. Dann zeigen die digitalen Zeitschaltuhr-Steckdosen, wie viel mehr Struktur ein kleines Hilfsmittel in den gesamten Tagesablauf bringen kann. Die Geräte verfügen über eine komplett deutsche Menüführung, was die Bedienung unkompliziert macht.
Das Display ist groß genug, um auch aus einem seitlichen Blickwinkel klar lesbar zu bleiben, und die Tasten erklären sich von selbst. Die Zeitschaltuhr-Steckdose arbeitet zudem mit bis zu zehn Programmen, ergänzt durch 16 flexibel einsetzbare Timer-Einstellungen. Wer also bestimmte Tage trennen möchte, erhält die volle Kontrolle über die gesamte Wochenplanung. Besonders praktisch wirkt das im Zusammenspiel mit Beleuchtung: Im Arbeitszimmer können LED-Strips automatisch starten, während im Wohnzimmer die Lampen abends abschalten, ohne dass man täglich daran denken muss.
Ob Schreibtischlampe, Lichterkette, Ventilator oder Außenleuchte – viele Käufer nutzen das Set für wiederkehrende Abläufe, die sonst manuell gestartet werden müssten. Der integrierte Zufallsmodus wirkt wie eine einfache Anwesenheitssimulation, indem Lampen in unregelmäßigen Intervallen ein- und ausgeschaltet werden. Das dürfte dabei hilfreich sein, Diebe abzuschrecken.
Die digitale Zeitschaltuhr-Steckdose im 3er-Pack wird heute bei Amazon für nur 34,19 Euro angeboten. Ein Preis, der gegenüber der UVP von 59,99 Euro einer Ersparnis von 25,80 Euro entspricht. Das Set war bei Amazon bis jetzt noch nicht günstiger zu haben. Das Angebot ist befristet, weshalb viele bereits zugreifen: Über 3000 Einheiten gingen allein im letzten Monat über den Ladentisch.
Reklame
Nach Maß Deutsche Ausführung Zeitschaltuhr Steckdose - 3 PCS| Elektrische Zeitschaltuhr Digital mit Deutsche System und Tasten | 10 konfigurierbare Programme | 12/24h Modus, Weiß
Jetzt mit 43% Rabatt bestellenMehrere Käufer betonen die einfache Programmierung und die zuverlässigen Schaltzeiten. Besonders gelobt wird der 3er-Pack, weil sich verschiedene Geräte unabhängig voneinander steuern lassen. Auch die Verständlichkeit des Displays taucht immer wieder positiv in den Bewertungen auf. Kritik kommt in Einzelfällen bei Problemen mit sehr hoher Last vor, doch im üblichen Haushaltseinsatz scheinen die Geräte den Bewertungen zufolge stabil zu laufen.
Dieser Artikel enthält sogenannte Affiliate-Links. Bei einem Kauf der Produkte über diese Links erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.
Alle Details zur Störungsmeldung ansehen Eigene Internetstörung melden
Während große Spielestudios unter Druck stehen, florieren kleinere Studios – indem sie solide haushalten und gute Spiele machen. Wie schaffen die das?
Die Gaming-Branche verschleißt Studios. Das ist zwar schon immer so, aber in letzter Zeit scheint kaum noch eine Wette aufzugehen. Aufwendige, große Spieleproduktionen werden teurer, doch sie spielen nicht unbedingt mehr ein. Dabei floppen nicht nur schlechte Spiele wie „Skull & Bones“, „Concord“ oder „Suicide Squad: Kill the Justice League“. Auch starke Titel wie „Assassin’s Creed Shadows“ oder „Spider-Man 2“ müssen viele Millionen verkaufen, um die hohen Entwicklungskosten wieder einzuspielen. Deshalb lohnt sich die Entwicklung vieler dieser sogenannten AAA-Spiele in vielen Fällen nicht mehr.
Doch in die deprimierende Dauerschleife aus enttäuschten Hoffnungen, abgeblasenen Projekten und Studioschließungen mischen sich hin und wieder ganz andere Töne. Zu schmissigen Akkordeonklängen feierte das französische „Clair Obscur – Expedition 33 [11] [11]“ Erfolge – als rundes, innovatives Fantasy-Rollenspiel in japanischer Tradition. Dabei war das Entwicklerteam um etliche Größenordnungen kleiner als bei einem aktuellen Assassin’s-Creed- oder Final-Fantasy-Titel. Das Spiel wirkt wie ein Schlaglicht: Kleinere Teams veröffentlichen viele gute Spiele, und oft sind die auch erfolgreich. Das stimmt offenbar in allen Größenordnungen: Der Game-Pass-Schlager „Atomfall [12] [12]“, entwickelt vom britischen „AA“-Studio Rebellion Games, und die Puzzle-Spieleserie „The Talos Principle“ des kroatischen Croteam erzählen eine Geschichte, die nicht zur Krisenstimmung passt. Der deutsche Mittelklasse-Hit schlechthin stammt von Keen Games und heißt „Enshrouded [13] [13]“. Ein Spiel, das sich millionenfach verkauft hat.
Und das sind keine Einzelfälle: Immer wieder haben mal kleinere, mal umfangreichere Spiele von erfahrenen Profis sehr großen Erfolg. Scheinbar gibt es auch in der Spieleindustrie eine goldene Mitte: stabile, erfolgreich arbeitende Studios, irgendwo zwischen Indie-Solo-Entwicklern oder Mini-Teams und ausufernd riesigen Multi-Studio-Konstruktionen. Für diesen Artikel haben wir mit Croteam, Keen Games, Rebellion Games und Starward Industries gesprochen – also mit Studios in Kroatien, Deutschland, England und Polen, mit Teamgrößen von 15 bis zu mehreren hundert Angestellten. Und wir haben sie nach ihrer Erfolgsformel gefragt.
URL dieses Artikels:
https://www.heise.de/-10748966
Links in diesem Artikel:
[1] https://www.heise.de/hintergrund/Spieleentwicklung-So-entstehen-erfolgreiche-Indie-Games-10748966.html
[2] https://www.heise.de/hintergrund/Kollektiv-statt-Hierarchie-Ein-deutsches-Indie-Studio-bricht-mit-Konventionen-10963442.html
[3] https://www.heise.de/hintergrund/Lose-CTRL-Wenn-ein-Spiel-eine-Auszeichnung-erhaelt-aber-trotzdem-floppt-10461814.html
[4] https://www.heise.de/hintergrund/Schnueffler-auf-Samtpfoten-Fuenf-Computerspiele-mit-tierischen-Ermittlern-10439187.html
[5] https://www.heise.de/tests/Games-Fuenf-digitale-Brettspieladaptionen-im-Test-10373948.html
[6] https://www.heise.de/hintergrund/Duck-Detective-Wie-ein-deutsches-Indie-Spielestudio-der-Krise-trotzt-10336209.html
[7] https://www.heise.de/ratgeber/Weg-von-Steam-Spiele-wirklich-besitzen-offline-spielen-und-installieren-10368528.html
[8] https://www.heise.de/hintergrund/Krise-in-der-Spielebranche-Entlassungen-Schliessungen-und-zerstoerte-Karrieren-9703454.html
[9] https://www.heise.de/tests/Fuenf-Videospiele-zum-Schrauben-Schalten-und-Verstehen-im-Test-10293622.html
[10] https://www.heise.de/ratgeber/Spieleentwickler-werden-Studium-Aufgaben-und-Gehalt-9825617.html
[11] https://www.heise.de/tests/Clair-Obscur-Expedition-33-Malerischer-Albtraum-10359173.html
[12] https://www.heise.de/tests/Atomfall-angespielt-Postapokalypse-mal-anders-10325942.html
[13] https://www.heise.de/tests/Survival-Rollenspiel-Enshrouded-Bauen-erkunden-und-die-Welt-retten-9616076.html
Copyright © 2025 Heise Medien
Einige Beispiele, die mit Apples Video-KI-Modell erstellt wurden
(Bild: Apple)
Apples KI-Abteilung veröffentlicht STARFlow-V, ein neues Video-KI-Modell. Es fällt durch realitätsnahe Videogenerierung mittels Normalizing Flows auf.
Während das Management von Apples KI-Abteilung gerade umgebaut wird [1], haben Forscher aus dem Team ein neues Video-KI-Modell veröffentlicht, das zumindest in der Fachwelt Aufsehen erregt. STARFlow-V [2] verlässt nämlich den ausgetretenen Pfad der Diffusionsmodelle, die sehr weit verbreitet sind. Stattdessen nutzen die Forscher sogenannte Normalizing Flows – eine Technologie, die bei der Videogenerierung bislang kaum eine Rolle spielte.
Wer sich die erzeugten Beispiele auf der Projektseite bei Github [3] anschaut, erkennt recht schnell, was STARFlow-V von vergleichbaren KI-Modellen unterscheidet: Das Modell erzeugt die kurzen Videos deutlich realitätsgetreuer und näher an den Anforderungen, die im Prompt gestellt wurden. Während es bei den anderen unerklärlich blinkt, auffallend unrealistisch aussieht oder typische KI-Effekte wie Verzerrungen zu sehen sind, liefert das Apple-Modell solide Qualität. Zwar haben die Videos nur eine Auflösung von 480p, aber Apple geht es anscheinend hier vor allem darum, die Machbarkeit unter Beweis zu stellen, weniger ein alltagstaugliches Modell abzuliefern.
Das 7 Milliarden Parameter große Modell kann Videos aus Textbeschreibungen generieren, Standbilder zu Videos erweitern und vorhandene Videos bearbeiten. Die Forscher haben STARFlow-V auf 70 Millionen Text-Video-Paaren und zusätzlich 400 Millionen Text-Bild-Paaren trainiert. Das Modell erzeugt Videos mit 480p-Auflösung bei 16 Bildern pro Sekunde und einer Länge von bis zu 5 Sekunden pro Segment.
Längere Videos entstehen durch schrittweise Verlängerung: Das Ende eines 5-Sekunden-Segments dient als Ausgangspunkt für das nächste. Auf der Projektseite zeigt Apple Beispiele von bis zu 30 Sekunden Länge. Genau hier zeigt sich die Stärke der ungewohnten Architektur. Denn im Vergleich zu Diffusionsmodellen sind Videos, die mit Normalizing Flows erstellt werden, mathematisch umkehrbar. Das Modell kann so die Wahrscheinlichkeit eines generierten Videos exakt berechnen, benötigt keinen separaten Encoder für Eingabebilder und trainiert direkt von Ende zu Ende.
Ein weiterer Unterschied: STARFlow-V generiert Videos streng autoregressiv – also Bild für Bild in zeitlicher Reihenfolge, sodass spätere Frames frühere nicht beeinflussen können. Standard-Diffusionsmodelle entrauschen dagegen oft alle Frames parallel.
Die Forscher haben dem Modell zudem eine "Global-Local-Architektur" verpasst: Grobe zeitliche Zusammenhänge über mehrere Sekunden werden in einem kompakten globalen Raum verarbeitet, während feine Details innerhalb einzelner Frames lokal behandelt werden. Das soll verhindern, dass sich kleine Fehler über längere Sequenzen aufschaukeln und ein Eigenleben entwickeln.
Für die Beschleunigung setzt STARFlow-V auf eine "video-aware Jacobi-Iteration": Statt jeden Wert einzeln nacheinander zu berechnen, werden mehrere Blöcke parallel verarbeitet. Das erste Frame eines neuen Segments wird dabei aus dem letzten Frame des vorherigen heraus entwickelt. Laut Apple erreicht das System so eine deutliche Beschleunigung gegenüber Standard-Autoregression.
In Benchmarks auf VBench erreicht STARFlow-V Werte, die mit aktuellen Diffusionsmodellen mithalten können – allerdings noch deutlich hinter kommerziellen Systemen wie Veo 3 von Google oder Gen-3 von Runway zurückliegen.
Aber auch bei Apples Modell geht mal etwas schief: Der Oktopus im Glas läuft einfach durch die Wand und ein Hamster läuft im durchsichtigen Hamsterrad, als wenn er nicht von dieser Welt kommt. Die Inferenzgeschwindigkeit liegt trotz Optimierungen noch weit von Echtzeit entfernt.
Im Ungefähren bleibt auch, was Apple selbst mit dem Modell vielleicht anstellen möchte: Denkbar wäre etwa, dass es aufgrund der geringen Größe lokal auf Geräten eingesetzt wird. Auch die Verwendung als Weltmodell für Virtual- oder Augmented-Reality wäre vorstellbar. Und schließlich könnte es auch für Apples angebliche Ambitionen in der Robotik von Nutzen sein.
Interessierte können den Code auf GitHub einsehen. Dort [4] ist auch ein Paper zum Modell verfügbar.
URL dieses Artikels:
https://www.heise.de/-11099726
Links in diesem Artikel:
[1] https://www.heise.de/news/Nach-Apple-Intelligence-Debakel-Apple-streicht-KI-Chefposten-11099412.html
[2] https://starflow-v.github.io/
[3] https://starflow-v.github.io/
[4] https://starflow-v.github.io/
[5] https://www.heise.de/mac-and-i
[6] mailto:mki@heise.de
Copyright © 2025 Heise Medien
(Bild: Apple)
Das Siri-Debakel sorgt weiter für internen Tumult bei Apple, einen KI-Chef gibt es bald nicht mehr. Ein Spezialist für Google Gemini soll es richten.
Apples KI-Chef verlässt den Konzern: John Giannandrea, der für rund acht Jahre die Sparte für maschinelles Lernen und KI-Strategie leitete, gibt seine Position auf und geht im Frühjahr 2026 in Ruhestand. Das teilte das Unternehmen in der Nacht auf Dienstag mit [1]. Das Aus für Giannandrea hatte sich bereits abgezeichnet: Die immer größeren Probleme und uneingelösten Versprechen rund um das veraltete Sprachassistenzsystem Siri und Apple Intelligence führten intern in den vergangenen Monaten zu erheblichen Umschichtungen [2] und einer weitreichenden Entmachtung des KI-Chefs.
Giannandrea kam 2018 von Google zu Apple und trieb im Unternehmen maschinelles Lernen voran, bekam die tief liegenden Probleme von Siri aber ganz offensichtlich nicht in den Griff. Er gilt als ein Architekt von Apples Hybrid-Ansatz, lokale Sprachmodelle auf dem Gerät mit KI-Modellen in der Cloud zu kombinieren. Auch für Siri versprach der Hersteller im Jahr 2024 mit Apple Intelligence [3] den großen Neuanfang. Dabei wurden weitreichende Funktionen präsentiert, bei denen Siri clever mit persönlichen Daten arbeitet und Aktionen über Apps hinweg ausführen kann. Geliefert hat Apple bislang praktisch nichts davon außer einer bunteren Bedienoberfläche, reagierte zugleich aber empfindlich auf Vaporware-Vorwürfe [4]. Eine „personalisiertere Siri“ soll nun 2026 folgen.
Berichten zufolge hat sich Apple dafür Unterstützung bei Google gesichert und will im Unterbau auf Gemini-Technik setzen. In dieses Bild passt, dass Apples neuer „Vice President of AI“ Amar Subramanya ehemals bei Google gearbeitet hat – zuletzt als Engineering-Chef des Gemini-Chatbots. Subramanya gab anschließend noch ein kurzes Gastspiel bei Microsoft und ist jetzt mit der Weiterentwicklung von Apples Foundation-Modellen betraut.
Einen KI-Chef auf oberster Ebene gibt es bei Apple bis auf Weiteres nicht mehr: Subramanya ist nämlich Apples Software-Chef Craig Federighi unterstellt. Andere Teile von Giannandreas KI-Sparte fallen künftig unter die Leitung von Apples Services-Chef Eddy Cue und dem Operations-Chef Sabih Khan. Diese Management-Änderungen würden die Arbeit vorantreiben, „um intelligente, vertrauenswürdige und zutiefst persönliche Erlebnisse zu liefern“, so der Konzern.
URL dieses Artikels:
https://www.heise.de/-11099412
Links in diesem Artikel:
[1] https://www.apple.com/newsroom/2025/12/john-giannandrea-to-retire-from-apple/
[2] https://www.heise.de/news/Dauerbaustelle-Siri-Vision-Pro-Chef-soll-es-jetzt-richten-10323435.html
[3] https://www.heise.de/ratgeber/Apple-Intelligence-Tipps-zum-Umgang-mit-KI-in-iOS-26-macOS-26-und-Co-10652685.html
[4] https://www.heise.de/news/Nach-Kritik-an-Siri-Debakel-Apple-lehnt-traditionelles-WWDC-Interview-ab-10420938.html
[5] https://www.heise.de/mac-and-i
[6] mailto:lbe@heise.de
Copyright © 2025 Heise Medien
Piano mit Liedblatt.
(Bild: Sebastian Trepesch / heise medien)
Die Notationssoftware Finale hat der Entwickler eingestellt, Sibelius ist teuer – aber das kostenlose MuseScore hilft. Wir zeigen, wie es geht.
MuseScore hat in den vergangenen Jahren große Entwicklungsschritte hingelegt. Wer nach einem Ersatz für Finale oder Sibelius sucht, ist hier richtig. Am Beispiel eines irischen Weihnachtsliedes zeigen wir in diesem Workshop, wie Sie mit der macOS-App schnell ein Notenblatt erstellen.
Laden und installieren Sie sich MuseScore Studio 4 [1] [1]. Beim ersten Start erhalten Sie nur die Option, eine "Neue Partitur" zu erstellen. Bei weiterer Nutzung erscheinen dort auch die zuletzt bearbeiteten Dateien. Wenn Sie bei MuseScore [2] [2] ein Web-Konto erstellen, steht Ihnen zudem "Meine Online-Partituren" zur Verfügung.
Bevor Sie eine Einzelstimme oder Partitur anlegen, sollten Sie sich Instrumente, Tonart, Takt und so weiter überlegen. Für unser Beispiel "Wexford Carol" wählen Sie "Gesang > Stimme". Klicken Sie anschließend auf den Pfeil, um diese Auswahl in die rechte Spalte des Fensters zu übertragen.
URL dieses Artikels:
https://www.heise.de/-11079973
Links in diesem Artikel:
[1] https://www.heise.de/download/product/musescore-46419
[2] https://musescore.com/user/login
[3] https://www.heise.de/tests/Test-Songs-professionell-mit-SpectraLayers-12-Pro-entmischen-10486332.html
[4] https://www.heise.de/tests/Musikproduktion-RipX-DAW-zum-Trennen-und-Zusammensetzen-von-Musikmixen-im-Test-10059590.html
[5] https://www.heise.de/tests/Positive-Grid-Spark-2-Mobiler-Uebungsverstaerker-fuer-Gitarristen-im-Test-10014304.html
[6] https://www.heise.de/tests/Donner-Medo-Portables-Multifunktionsinstrument-im-Test-9837767.html
[7] https://www.heise.de/tests/Keyboard-mit-35-Synthesizern-im-Test-Arturia-AstroLab-9821657.html
[8] https://www.heise.de/tests/Logic-Pro-im-Test-Mit-dem-Mac-und-iPad-einzelne-Songs-komponieren-9757319.html
[9] https://www.heise.de/tests/Gitarren-Synthesizer-im-Test-Boss-GM-800-mit-digitaler-Signaluebertragung-9293795.html
[10] https://www.heise.de/tests/Rechner-fuer-Musikproduktion-Bauvorschlag-fuer-eine-optimale-Audio-Workstation-8974294.html
Copyright © 2025 Heise Medien
Franziska Lindner
Der Korruptionsskandal trifft Selenskyjs engste Vertraute
(Bild: miss.cabul/Shutterstock.com)
Ein riesiger Korruptionsskandal erschüttert Kiew. Selenskyjs Rückhalt schwindet rasant. Warum genau das den Krieg beenden könnte.
Am 10. November dieses Jahres gaben die ukrainischen Antikorruptionsbehörden Nabu und Sapo bekannt [1], eine kriminelle Vereinigung, in die enge Vertraute des ukrainischen Präsidenten Wolodymyr Selenskyj verwickelt seien, aufgedeckt zu haben.
Ihre Mitglieder hatten ein Korruptionssystem entwickelt [2] und staatliche Unternehmen in den Bereichen Energie und Verteidigung genutzt, um sich unrechtmäßige Vorteile zu verschaffen sowie Schmiergelder zu erhalten. Insgesamt flossen dabei rund 100 Millionen US-Dollar.
Die sogenannte "Operation Midas" zur Dokumentation der Aktivitäten der kriminellen Vereinigung dauerte über 15 Monate an, in denen große Mengen an Daten gesammelt und Tausende von Stunden an Audiomaterial aufgenommen worden sind. Auf gerichtliche Anordnung wurden mehr als 70 Durchsuchungen im Lande durchgeführt, wobei eine Vielzahl an Dokumenten und erhebliche Summen Bargeld beschlagnahmt wurden.
Zunächst wurde Selenskyjs enger Vertrauter und Geschäftspartner Timur Minditsch belastet. Bei dem ukrainisch-israelischen Unternehmer, Filmproduzent und Mitinhaber des Fernsehunternehmens "Kwartal 95", das Mitbegründer Selenskyj im Land als Unterhaltungskünstler bekannt machte, wurden gemäß Nabu stapelweise Einhundertdollar-Scheine und eine goldene Toilette gefunden. Minditsch soll wenige Stunden vor der Razzia gewarnt worden sein und sich nach Israel abgesetzt haben.
Des Weiteren hatten die ukrainischen Minister für Justiz und Energie inmitten der sich ausweitenden Korruptionsuntersuchung ihren Rücktritt eingereicht [3]. Sie sollen an dem Betrug beteiligt gewesen sein, in den das staatliche Unternehmen Energoatom [4], das für die Betreibung der ukrainischen Kraftwerke zuständig ist, verwickelt war.
Nachdem entsprechende Vermutungen bereits im Raum standen, dass auch der Stabschef und enger Vertrauter des Präsidenten, Andrij Jermak, an der Affäre beteiligt sein könnte, räumte auch dieser am vergangenen Freitag nach einer Durchsuchung in seiner Wohnung im Kiewer Regierungsviertel seinen Posten.
Jermak, der dem ukrainischen Präsidenten sehr nahe steht, verfügte über weitreichende Befugnisse bei der Staatsführung und war kürzlich noch Verhandlungsführer der ukrainischen Delegation bei den Gesprächen über Donald Trumps 28-Punkte-Plan [5] in Genf gewesen.
Damit verdichteten sich die Anzeichen, dass Selenskyj von dem Schmiergeldnetzwerk gewusst haben muss oder diesem gar selbst angehören könnte. Noch im Sommer hatte der ukrainische Machthaber versucht die Antikorruptionsbehörden zu entmachten, nachdem es im Juli zu regierungskritischen Protesten gekommen war.
Damals plante Selenskyj, die Behörden Nabu und Sapo seiner Administration unterzuordnen. Dieses Unterfangen musste er jedoch schon wenig später aufgeben, als die Führung der EU ihm im Gegenzug drohte, Kiew die finanzielle Unterstützung zu entziehen. Offensichtlich wurde dabei, dass die ukrainischen Antikorruptionsbehörden von westlichen Regierungen unterstützt werden und damit von diesen nicht als unabhängig zu betrachten sind.
Es ist möglich, dass mit der jetzigen Offenlegung des Korruptionsskandals das Verfolgen politischer Ziele in Zusammenhang steht. Daraufhin deuten sowohl die Art und Weise, wie langsam und sukzessive durch die Ermittlungen Fakten aufgedeckt und Verdächtige identifiziert werden, als auch der Zeitpunkt mit Blick auf den neuen US-amerikanischen Friedensplan.
Der Skandal hat dem internationalen Ansehen der Kiewer Führung und insbesondere des ukrainischen Präsidenten massiv geschadet. Zum gleichen Zeitpunkt kommt ein neuer US-Friedensplan um die Ecke, der vorsieht, die wichtigsten Forderungen Russlands zur Beendigung des Krieges zu erfüllen.
Vor wenigen Tagen berichtete [6] die britische Zeitung The Telegraph, dass die USA bereit seien, die Kontrolle Russlands über die Krim und andere besetzte Gebiete anzuerkennen, um den wichtigsten Forderungen Moskaus für ein Friedensabkommen nachzukommen.
Dazu soll der US-Präsident den Sonderbeauftragten Steve Witkoff sowie seinen Schwiegersohn Jared Kusher in die russische Hauptstadt geschickt haben, um Präsident Wladimir Putin ein entsprechendes Angebot zu unterbreiten.
Mit Blick auf die EU sagte eine Quelle gegenüber The Telegraph darüber hinaus: "Es wird immer deutlicher, dass die Amerikaner sich nicht um die Position Europas kümmern. Sie sagen, die Europäer könnten tun, was sie wollen".
Bei der englischsprachigen Version der Nachrichtenseite Al Jazeera schreibt [7] der freiberufliche Journalist Leonid Ragozin mit Sitz in Riga etwa, dass es angesichts des Korruptionsskandals nun einen klaren Sündenbock für die sich abzeichnende Niederlage der Ukraine gäbe, nämlich den ukrainischen Präsidenten selbst, was wiederum die Aussicht auf einen Frieden heute realistischer mache.
Demnach sei seit Langem klar, dass die westlichen Verbündeten im Hinblick auf die militärische und finanzielle Unterstützung für die Ukraine sowie die Sanktionspolitik gegen Russland an ihre Grenzen gestoßen sind. Währenddessen sei die Ukraine mit Wehrdienstverweigerungen [8] sowie territorialen und menschlichen Verlusten konfrontiert.
Die Bereitschaft zu einem weiteren Krieg mit Russland sei in Europa weitgehend erschöpft, doch niemand wolle dafür verantwortlich gemacht werden, dass eine schlechtere Einigung erzielt wurde, als in der Vergangenheit möglich gewesen wäre. Die EU hatte sich stets gegen Gebietsabtretungen [9] und eine Art Neutralitätsstatus der Ukraine gewehrt, was bislang der Hauptgrund für Kiews Weigerung war, ein Kriegsende zu akzeptieren.
Sollte ein deutlich geschwächter Selenskyj einem Friedensabkommen zu Vorteilen Russlands zustimmen, käme dies einer Niederlage der Ukraine gleich, die für die europäischen Staats- und Regierungschef schwierig zu akzeptieren sein wird.
URL dieses Artikels:https://www.heise.de/-11099691
Links in diesem Artikel:[1] https://nabu.gov.ua/en/news/operatciia-midas-vykryto-vysokorivnevu-zlochynnu-organizatciiu-shcho-diiala-u-sferi-energetyky/[2] https://www.heise.de/tp/article/Korruptionsskandal-in-Kiew-Selenskyj-Vertraute-im-Zentrum-11076948.html[3] https://www.aljazeera.com/news/2025/11/12/ukraine-suspends-justice-minister-for-alleged-link-to-100m-corruption-case[4] https://www.heise.de/tp/article/Zwischen-Abschaltung-und-GAU-Die-nukleare-Gratwanderung-der-Ukraine-11089260.html[5] https://www.heise.de/tp/article/Geheimtreffen-in-Abu-Dhabi-Warum-Trumps-Ukraine-Plan-die-Welt-spaltet-11090674.html[6] https://www.telegraph.co.uk/world-news/2025/11/28/trump-to-recognise-occupied-ukraine-part-of-russia/[7] https://www.aljazeera.com/opinions/2025/11/23/a-corruption-scandal-may-well-end-the-war-in-ukraine[8] https://www.heise.de/tp/article/Todesfalle-Wehrdienst-Warum-Rekruten-im-Ukraine-Krieg-chancenlos-waeren-10624569.html[9] https://www.heise.de/tp/article/Versucht-die-EU-bereits-den-neuen-Ukraine-Friedensplan-zu-sabotieren-11089182.html
Copyright © 2025 Heise Medien
Philipp Fess
Über die Regierungs-App Gov.gr können griechische Bürger mehr als 2.000 Verwaltungsdienste per Smartphone erledigen. Bild: www.gov.gr / CC BY-SA 4.0 deed
Medien feiern Wandel Griechenlands von Schuldennation zum Digitalvorbild. Der vermeintlich originäre Wandel geht direkt auf Pläne der EU-Kommission zurück.
Griechenland und Deutschland haben ein besonderes Verhältnis. Als Urlaubsziel der Deutschen fährt „Hellas“ Rekorde ein: 2025 waren Urlauber aus Germanía [1] mit 5,6 Millionen die größte Touristengruppe im Land. Doch noch bis vor ein paar Jahren war das Verhältnis zwischen den beiden Ländern auch in negativer Weise ein besonderes.
Während der Schuldenkrise 2010 wurde Griechenland in der deutschen Öffentlichkeit als verantwortungsloses Krisenland dargestellt, das die fleißigen deutschen Steuerzahler belastet und durch eigene Fehlentscheidungen in die Misere geraten sei. Die Bild [2] sprach von den „Pleite-Griechen“, der Focus [3] beleidigte die Nation mittels einer Mittelfinger reckenden Venus von Milo als „Betrüger“.
Damals fiel das Scheinwerferlicht auf den Sozialisten Yanis Varoufakis, der sich entschieden gegen die strenge Austeritätspolitik des Internationalen Währungsfonds stellte – lange bevor Varoufakis dann, vermeintlich [4], seinen eigenen Mittelfinger reckte.
Mit den griechischen Digitalisierungs-Erfolgen scheint dieses hellenistische Zerrbild nun vollends der Vergangenheit anzugehören.
Das Handelsblatt [5] vermeldet am 26. November unter dem Titel „Was Deutschland heute von Griechenland lernen kann“ den Besuch von Finanzminister Kyriakos Pierrakakis in Berlin, wo ihn die Hertie School of Governance eingeladen hatte, über die griechischen gov-tech-Erfolge zu sprechen. Griechenland, so das Handelsblatt, habe einen Wandel „vom Bittsteller zum Tippgeber“ vollzogen.
Die digitalen Reformen in Griechenland drehen sich vor allem um die Plattform „Gov.gr“, die unter anderem laut Tagesspiegel [6] mittlerweile mehr als 2.000 staatliche Dienstleistungen online anbietet – von Steuerangelegenheiten bis hin zu Gesundheits- und Bildungsdiensten.
Ein zentraler Bestandteil ist die digitale Brieftasche „Gov.gr Wallet“, in der Bürger ihre digitale Identität, ihren digitalen Führerschein und andere Dokumente speichern und verwalten können. Über Griechenlands „Schlüssel zum Staat“ für mehr „Regierungseffizienz“ hat Telepolis bereits an anderer Stelle kritisch berichtet.
Ebenso über die Parallelen zum „Effizienzministerium“ DOGE wie es Elon Musk in den USA geprägt hat und wie es in Deutschland in Form des Ministeriums für Staatsmodernisierung unter Führung des ehemaligen Konzernmanagers Karsten Wildberger (CDU) auftritt.
Nun hat der Vorstoß Griechenlands genau besehen allerdings wenig Griechisches.
Denn wie Telepolis ebenfalls bereits dargelegt hat, ist mit der für 2027 geplanten Einführung der digitalen Brieftasche der EU (EUDI Wallet) auch hierzulande „der Umbruch zum Gov-Tech-Deutschland“ bereits in Planung.
Die Griechen treten lediglich als Pioniere für ein Konzept auf, das bereits seit Langem in den Schubladen der Kommission schlummert. Das gilt auch für ein anderes, mit dem die Griechen jüngst von sich reden machten.
Im Mai hat die griechische Regierung eine neue App namens „Kids Wallet“ eingeführt [7], um den Schutz von Kindern im Internet zu verbessern und Eltern mehr Kontrolle über die Online-Aktivitäten ihrer Kinder zu geben.
Wie unter anderem t3n [8] schreibt, ermöglicht die „Kids Wallet“ es Eltern, die Nutzung von Online-Plattformen und -Diensten für Kinder bis 15 Jahre zu steuern, indem sie Zugänge genehmigen, Altersnachweise bereitstellen und Zeitlimits festlegen können. Die digitale Identität des Kindes wird dabei über die Eltern verknüpft, und die Altersdaten werden im System gespeichert.
Seit Ende Oktober testet die griechische Regierung eine Sperre innerhalb der „Kids Wallet“, mit der Kinder unter 15 Jahren anhand ihrer gespeicherten Ausweisdokumente automatisch von sozialen Netzwerken sowie Angeboten für Erwachsene wie Glücksspiel und Pornografie ausgeschlossen werden [9]. Über den Zusammenhang zwischen dem vorgeblichen Kampf gegen Pornografie und der Einführung der digitalen Identität hat Telepolis an anderer Stelle ausführlicher berichtet.
Am 26. November hat das EU-Parlament eine die Kommission in einer Initiative dazu aufgefordert, einen entsprechenden Gesetzesvorschlag für Europa zu entwickeln. Die EU-Mitglieder Dänemark, Spanien, Italien und Belgien arbeiten bereits an einer App nach griechischem Vorbild, wie die Tagesschau [10] berichtet. Auch die „Kids Wallet“ ist dabei aber keine Erfindung Griechenlands.
Im Juli hat die EU-Kommission im Rahmen des Digital Services Acts [11] (DSA) „in enger Zusammenarbeit mit den Mitgliedsstaaten“ ein Grundlagenpapier [12] („blueprint“) zur Einführung eines „EU-Leitfadens für die Altersüberprüfung als Grundlage für ein benutzerfreundliches und datenschutzkonformes Verfahren zur Altersüberprüfung in allen Mitgliedstaaten“ veröffentlicht.
Unter den Mitgliedsstaaten, die sich bereiterklärten, als erste Länder eine „technische Lösung“ in ihre „nationalen digitalen Brieftaschen zu integrieren oder eine maßgeschneiderte nationale App zur Altersüberprüfung in den App-Stores zu veröffentlichen“ finden sich Dänemark, Frankreich, Italien, Spanien – und Griechenland.
Griechenland hat klare Anreize, seine Digitalpolitik im Sinne der EU zu gestalten, vor allem durch finanzielle Förderungen und strategische Unterstützung aus Brüssel. So erhält das Land etwa 7,4 Milliarden Euro aus dem EU-Aufbau- und Resilienzplan [13], wovon ein Großteil für den digitalen Wandel bereitgestellt wird.
Zusätzlich fließen 2,7 Milliarden Euro aus den Kohäsionsfonds in digitale Projekte. Diese Mittel sind an die Umsetzung von EU-Vorgaben und -Strategien gebunden, etwa zur Verbesserung der digitalen Infrastruktur, der E-Government-Dienste und der digitalen Kompetenzen der Bevölkerung.
Trotz allem Grundlagenwerk der EU scheinen die ehemaligen „Schulden-Griechen“ (Bild) besonders bestrebt zu sein, „gov-tech“-Lösungen für das Land zu realisieren.
Das zeigte sich bereits im Ausklang der Corona-Krise 2022, als die Regierung beschloss, den sogenannten „Fuel Pass“ einzuführen – eine Sozialleistung in Form eines Zuschusses für Kraftstoff, in dessen Genuss Personen mit einem Einkommen von weniger als 30.000 Euro kommen konnte, wenn sie sich dafür auf einer entsprechenden Regierungswebsite unter Angabe ihrer Steuernummer, E-Mail und der Nummer ihres Mobiltelefons anmeldeten [14].
Im hochverschuldeten Sri Lanka, wo 2022 ein ähnliches digitales Zuschuss-Programm etabliert wurde, war dessen Einführung eng mit den Reformforderungen westlicher Investoren und Entwicklungsbanken im Rahmen der Agenda 2030 für nachhaltige Entwicklung gekoppelt [15].
Der Verfasser dieses Beitrags hat damals außerdem bereits auf die enge Verbindung zu Maßnahmen hingewiesen, wie sie während der Corona-Krise getroffen wurden, namentlich dem Impfpass [16] oder andernorts auch „Grüner Pass“ genannt.
Der CDU-Wirtschaftsrat hat im September eine Publikation [17] dazu veröffentlicht, „Wie Griechenland die Wende geschafft hat“. Darin sagt Ökonom Jens Bastian [18], Ex-Berater der EU-Bank für Wiederaufbau (EBRD), heute Fellow am Centrum für angewandte Türkeistudien“ (CATS) der Stiftung Wissenschaft und Politik (SWP):
„Den eigentlichen Durchbruch erlebte die Digitalisierung in Griechenland mit der Corona Pandemie.“
URL dieses Artikels:https://www.heise.de/-11099784
Links in diesem Artikel:[1] https://www.t-online.de/leben/aktuelles/id_100738790/griechenland-deutsche-urlauber-stellen-tourismus-rekord-auf.html[2] https://www.bild.de/politik/inland/griechenland-krise/bild-sagt-nein-teil-2-22851260.bild.html[3] https://www.bpb.de/themen/europaeische-geschichte/griechenland/178337/schulden-und-schuld-die-euro-krise-aus-der-perspektive-der-medien/[4] https://www.sueddeutsche.de/medien/varoufakis-video-boehmermann-zeigt-erregungsdeutschland-den-stinkefinger-1.2400610[5] https://www.handelsblatt.com/politik/deutschland/reformen-was-deutschland-heute-von-griechenland-lernen-kann/100177913.html[6] https://www.tagesspiegel.de/politik/eine-app-fur-alle-staatlichen-dienstleistungen-das-kann-deutschland-von-griechenland-lernen-14141918.html[7] https://www.biometricupdate.com/202505/greece-launches-childrens-digital-wallet-for-online-age-assurance[8] https://t3n.de/news/kids-wallet-griechenland-kinder-internet-1665925/[9] https://du-bist-grieche.de/griechenland-fuehrt-als-erstes-eu-land-ein-neues-system-zum-jugendschutz-ein/19368782[10] https://www.tagesschau.de/ausland/europa/eu-mindestalter-soziale-medien-100.html[11] https://www.telepolis.de/thema/Digital-Services-Act[12] https://digital-strategy.ec.europa.eu/en/news/commission-makes-available-age-verification-blueprint[13] https://digital-strategy.ec.europa.eu/de/factpages/greece-2025-digital-decade-country-report[14] https://www.cicero.de/aussenpolitik/wirtschaftskrise-digitale-identitat-zentralbankwahrung-sri-lanka-griechenland-sozialkreditsystem?amp[15] https://www.elibrary.imf.org/view/journals/002/2023/116/article-A001-en.xml#:~:text=a%20digital%20fuel%20rationing%20system%20was%20put%20in%20place%20to%20address%20fuel%20shortage%2C%20which%20helped%20reduce%20queues%20at%20fuel%20stations%20in%20recent%20months.[16] https://www.cicero.de/aussenpolitik/wirtschaftskrise-digitale-identitat-zentralbankwahrung-sri-lanka-griechenland-sozialkreditsystem?amp[17] https://wirtschaftsrat.de/de/documents/3326/296347_Trend183_300dpi.pdf[18] https://www.eliamep.gr/en/human_resources/jens-bastian/
Copyright © 2025 Heise Medien
Uwe Kerkow
Foto: Blossom Stock Studio, shutterstock
Ein staatliches Bezahlsystem aus Brasilien verdrängt amerikanische Tech-Giganten und Kreditkartenkonzerne. Washington wittert unfaire Handelspraktiken.
Die USA haben ein formelles Handelsverfahren gegen Brasiliens beliebtestes Bezahlsystem eingeleitet. Das Büro des US-Handelsbeauftragten untersucht das staatliche Instant-Payment-System “Pix” wegen angeblich unfairer Handelspraktiken, die amerikanische Unternehmen benachteiligen könnten.
Im Zentrum der Kritik steht ein Wort aus nur drei Buchstaben, das in ganz Brasilien allgegenwärtig geworden ist: Pix. Das im November 2020 von der brasilianischen Zentralbank eingeführte Zahlungssystem ermöglicht es Privatpersonen, Unternehmen und staatlichen Stellen, rund um die Uhr in wenigen Sekunden Zahlungen zu senden oder zu empfangen.
Doch anders als vergleichbare Systeme wird Pix nicht von einem Konsortium privatwirtschaftlicher Banken kontrolliert, sondern direkt von der brasilianischen Zentralbank. Für Privatpersonen und kleine Unternehmen ist die Nutzung völlig kostenfrei [1].
Zwei Faktoren unterscheiden Pix von anderen Instant-Payment-Systemen weltweit: Erstens ist es für Privatpersonen und kleine Unternehmen gebührenfrei. Und auch größere Unternehmen zahlen deutlich niedrigere Bearbeitungsgebühren als bei Debit- oder Kreditkarten. Zweitens ist die Teilnahme für alle lizenzierten Finanzinstitute im Land verpflichtend. Deshalb nehmen bereits 934 Finanzinstitute teil.
Die Verbreitung war entsprechend rasant. Mittlerweile nutzen rund 80 Prozent [2] der brasilianischen Bevölkerung den Dienst für nahezu die Hälfte der finanziellen Transaktionen im Land. Pix überholte bereits im Januar 2022 die Debitkarten-Transaktionen und im Februar 2022 die Kreditkarten-Transaktionen.
Das System startete zeitgleich mit dem pandemiebedingten Nothilfeprogramm der Regierung, in dessen Folge Dutzende Millionen Menschen Bankkonten eröffneten, um staatliche Leistungen zu empfangen. Diese Menschen nahmen auch das kontaktlose Zahlungsverfahren Pix schnell an [3].
Die US-Handelsbehörden stören sich daran, dass das brasilianische System amerikanischen Unternehmen einen unfairen Nachteil verschafft habe. "US-Unternehmen sehen diese Daten als kritisch an", erklärt [4] etwa Ignacio Carballo, ein Berater der Marktforschungsfirma Payments and Commerce Markets Intelligence aus San Francisco. "Das verleiht der brasilianischen Regierung viel Macht."
US-Handelsbehörden bemängeln, dass Brasilien amerikanischen Unternehmen durch den Schutz der von Pix erhobenen Verbraucherdaten schade [5]. Diese bräuchten solche Informationen für Geschäftsentscheidungen und die Entwicklung neuer Produkte.
Auch der Facebook-Konzern Meta bekam die Auswirkungen des Pix-Erfolgs zu spüren. Das Unternehmen hatte geplant, 2020 Zahlungen über WhatsApp in Brasilien einzuführen. Die brasilianische Bankenaufsicht verzögerte jedoch die Markteinführung mit der Begründung, dies könne Brasiliens eigene Zahlungssysteme untergraben [6].
Meta brachte das WhatsApp-Zahlungssystem schließlich im Mai 2021 auf den Markt - sechs Monate nach Pix. Es fand jedoch keinen Anklang [7].
Besonders alarmiert sind die Zahlungskartenfirmen Visa und Mastercard. Der Wettbewerb könnte für sie in Brasilien noch härter werden, sollte ein neuer Plan für Pix-Zahlungen in Raten an Fahrt gewinnen.
"Pix in Raten" [8] ist ein Finanzprodukt, das an die persönliche Kreditwürdigkeit des Kunden gekoppelt wird. Die Zinssätze trägt jede Bank entsprechend dem Risikoprofil des Zahlers. All dies geschieht ohne zusätzliche Nutzergebühren und ohne die Zwischenschaltung von Kartenbetreibern.
Breno Lobo, stellvertretender Leiter der Abteilung für Wettbewerb und Finanzmarktstruktur der Zentralbank, betont: "Das Ziel ist nicht, irgendein Zahlungsmittel zu eliminieren, sondern die verfügbaren Optionen für die Bevölkerung zu erweitern."
So schaltet Brasilien die Zwischenhändler aus und stellt die Finanzinnovation vom Kopf auf die Füße. Außerdem hat Brasilien jüngst auch dem chinesischen Kartenunternehmen UnionPay die Tür geöffnet [9].
Pix stößt auch in anderen Ländern [10] auf erhebliches Interesse. Nach Angaben der Zentralbank gab es bereits mehr als 50 Interessensbekundungen, das System kennenzulernen. Der Erfolg von Pix hat Debatten über "öffentliche digitale Güter" angestoßen - also Diskussionen darüber, ob mehr Länder eigene Echtzeit-Zahlungssysteme entwickeln sollten, statt auf private Anbieter zu setzen.
Daniel Santos Kosinski, Professor für Wirtschaftswissenschaften an der Staatsuniversität Rio de Janeiro, erklärt: "Diese Unternehmen haben es nie geschafft, in Brasilien Fuß zu fassen. Da Pix kostenlos nutzbar ist, ist es ein extrem fähiger Konkurrent und schwer zu schlagen."
Pix wird auch als mögliche Fintech-Blaupause für die BRICS-Allianz der Entwicklungsländer gesehen, die von Brasilien, Russland, Indien, China und Südafrika angeführt wird. Das Bündnis strebt die Schaffung einer internationalen Zahlungsplattform an, um die Abhängigkeit vom US-Dollar zu verringern.
Der Erfolg von Pix hat jedoch auch Schattenseiten. Das System beschleunigt den Niedergang des Bargelds, womit Privatsphäre und Anonymität verloren geht. Laut einer Erhebung [11] der Zentralbank von 2024 nutzten 2021 noch 83,6 Prozent der Bevölkerung Bargeld; bis 2024 war dieser Wert auf 68,9 Prozent gesunken.
Und wie das weitgehend bargeldlose Schweden kämpft auch Brasilien mit einer Explosion digitaler Betrugsdelikte [12]. Pro Stunde werden 1.640 Mobiltelefone gestohlen. Ziel ist nicht das Gerät selbst, sondern dessen Apps, Kontakte und Passwörter. Jede betroffene Person verliert im Schnitt 1.500 Reais (240 Euro) – zusätzlich zum Verlust des Smartphones.
Das Brasilianische Forum für Öffentliche Sicherheit schätzt [13] die Verluste durch digitalen Betrug für 2024 auf 34 Milliarden US-Dollar. Bei Betrugsfällen bleiben die finanziellen Schäden ausschließlich an den Opfern hängen.
Im Juli schaffte es eine Gruppe hochprofessioneller Cyberkrimineller sogar, die Reservekonten der Zentralbank von mindestens sechs Finanzinstituten zu hacken und zu räumen [14]. Nachdem sie von einem Mitarbeiter eines Drittanbieters Zugangscodes zu den Pix- und Zentralbank-Zahlungssystemen erlangt hatten, erbeuteten die Diebe umgerechnet fast 150 Millionen US-Dollar.
Der Angriff legte gravierende Schwachstellen in der IT-Infrastruktur des brasilianischen Zahlungssystems offen, allerdings vor allem bei externen Anbietern aus dem Privatsektor. Die Zentralbank reagierte, indem sie die Nutzung von Pix für mehrere Institute vorübergehend aussetzte.
Der Hack unterstrich eine der größten Gefahren von Echtzeit-Zahlungssystemen: Die sofortige Abwicklung verhindert Korrekturen bei Fehlern und Betrugsfällen.
Brasiliens Präsident Luiz Inácio Lula da Silva reagierte mit einer kämpferischen Erklärung auf die US-Untersuchung: "Wir verteidigen Pix vor jedem Privatisierungsversuch. Pix gehört Brasilien. Es ist öffentlich, es ist kostenlos und es wird so bleiben."
Für viele Brasilianer, für die Pix zu einer Quelle des Nationalstolzes geworden ist, fühlt sich die US-Untersuchung wie ein persönlicher Angriff an. Rebeca Neves da Luz, Medizinstudentin an der Universität São Judas Tadeu, bringt es auf den Punkt: "Pix ist ein öffentliches digitales Gut. Es ist eine politische Entscheidung, dass die Zahlungsinfrastruktur nicht von Big Tech kontrolliert werden muss."
URL dieses Artikels:https://www.heise.de/-11098650
Links in diesem Artikel:[1] https://www.bcb.gov.br/en/financialstability/pix_en[2] https://www.bcb.gov.br/detalhenoticia/20673/noticia[3] https://www.bis.org/publ/bisbull52.htm[4] https://www.nytimes.com/2025/09/29/world/americas/brazil-digital-payments.html[5] https://restofworld.org/2025/pix-brazil-us-investigation-digital-payments[6] https://www.france24.com/en/americas/20250731-how-brazil-innovative-pix-payment-system-is-angering-trump-zuckerberg[7] https://valorinternational.globo.com/markets/news/2025/07/17/analysis-how-pix-stepped-on-zuckerbergs-toes.ghtml[8] https://veja.abril.com.br/economia/pix-parcelado-os-impactos-esperados-e-as-reacoes-provocadas-pela-nova-era-da-ferramenta/[9] https://tribunademinas.com.br/colunas/maistendencias/grande-concorrente-do-visa-e-mastercard-chega-ao-brasil/[10] https://ipsnoticias.net/2025/10/pix-un-sistema-de-pagos-creado-en-brasil-inspira-a-otros-paises/[11] https://www.bcb.gov.br/content/cedulasemoedas/pesquisabrasileirodinheiro/Apresentacao_brasileiro_relacao_dinheiro_2024.pdf[12] https://www.economist.com/the-americas/2024/01/04/why-is-brazil-a-hotspot-for-financial-crime[13] https://archive.ph/cn8YR#selection-581.0-601.394[14] https://www.infobae.com/america/america-latina/2025/07/05/asi-fue-el-mayor-ciberataque-contra-el-sistema-financiero-de-brasil/
Copyright © 2025 Heise Medien
(Bild: Sundry Photography/Shutterstock.com)
Die Programmiersprache Zig verlässt GitHub nach zehn Jahren. Grund sind Probleme mit GitHub Actions, chaotisches Job-Scheduling und Microsofts KI-Ausrichtung.
Die Programmiersprache Zig zieht die Reißleine: Nach zehn Jahren auf GitHub hat die Stiftung hinter der Programmiersprache die Plattform verlassen und ihre Entwicklung auf Codeberg umgezogen. Das erklärt Zig-Gründer Andrew Kelly in einem Blogpost.
Der Auslöser war demnach [1] kein kleiner Bug, sondern eine Reihe von Problemen rund um GitHub Actions – und ein wachsender Unmut darüber, wohin sich der Dienst unter Microsoft entwickelt.
Angefangen hat alles mit einem unscheinbaren Issue rund um ein fehlerhaftes Skript. Gestartet wurde der entsprechende Thread "safe_sleep.sh" im April 2025. Monate passierte laut The Register [2] nichts. Am 26. November hat der Zig-Gründer unter anderem deshalb die Geduld verloren.
Für ihn ist der Vorgang typisch für den derzeitigen Zustand der Plattform. Er nimmt es als Beispiel für die Gründe hinter Zigs Abkehr: "Actions weist unverzeihliche Fehler auf und wird dabei völlig vernachlässigt."
Kelly kritisiert außerdem, dass inzwischen "vibe-scheduling" betrieben würde – also Aufträge scheinbar zufällig ausgewählt und angenommen würden. Das bremse die Entwicklung aus und sei für ein Compilerprojekt schlicht untragbar.
Mit Microsoft im Rücken hat GitHub zuletzt immer stärker auf generative KI gesetzt. Kelly sieht darin einen Richtungswechsel, der zulasten der Plattformqualität geht. Er passt zudem nicht zu Zigs klarer "No-AI-Policy".
Dazu kommt generelle Unzufriedenheit mit Performance, Usability und Prioritäten. GitHub sei von "technischer Exzellenz" zu einer "überladenen, verbuggten JavaScript"-Plattform verkommen. Deshalb kehrt Zig ihr nun den Rücken.
Tatsächlich ist Zig inzwischen schon komplett umgezogen. Die neue Haupt-Repository liegt unter https://codeberg.org/ziglang/zig.git [3], wie Kelly in seiner Mitteilung verrät.
Das alte GitHub-Repo bleibt allerdings bestehen, ist aber schreibgeschützt. Issues werden nicht migriert. Neue Tickets starten auf Codeberg nun bei Nummer 30.000, um Verwechslungen zu vermeiden.
Ein heikler Punkt bleibt die Finanzierung: GitHub Sponsors war jahrelang ein wichtiger Baustein für die Zig-Community, weshalb Kelly hier den einzigen Wermutstropfen der Abkehr sieht. Trotzdem zieht Zig die Reißleine.
Das Programm sei seit dem Weggang seiner ursprünglichen Chefin Devon Zuegel sowieso vernachlässigt worden. Kelly bittet Unterstützerinnen und Unterstützer darum, nun auf every.org [4] für Spenden umzusteigen.
Zig ist übrigens nicht das einzige Team, das GitHub inzwischen kritisch sieht, wie The Register schreibt. Andere Projekte wie der Dillo-Browser haben ähnliche Gründe genannt: zu viel JavaScript, zu viel KI, zu wenig Kontrolle.
Codeberg profitiert davon: Die Plattform hat ihre Mitgliedszahlen 2025 verdoppelt.
Dieser Beitrag ist zuerst bei t3n.de [5] erschienen.
URL dieses Artikels:
https://www.heise.de/-11100000
Links in diesem Artikel:
[1] https://ziglang.org/news/migrating-from-github-to-codeberg/
[2] https://www.theregister.com/2025/12/02/zig_quits_github_microsoft_ai_obsession/
[3] https://codeberg.org/ziglang/zig.git
[4] https://www.every.org/zig-software-foundation-inc
[5] https://t3n.de/news/zig-verlasst-github-1719543/
[6] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[7] mailto:jle@heise.de
Copyright © 2025 Heise Medien
(Bild: Richard Seidl)
In dieser Episode sprechen Richard Seidl, Jonas Menesklou und Umar Usman Khan über KI-gestützte Tests für Legacy-Anwendungen.
Richard Seidl spricht in dieser Episode mit Jonas Menesklou und Umar Usman Khan über KI-gestützte Tests für Legacy-Anwendungen. Der Praxisfall: die mobile Kasse der Deutschen Bahn. Die manuelle Abnahme dauerte zwei Wochen, klassische Tools scheiterten an fehlenden IDs. Mit AskUI läuft es visuell: Screenshot, OCR und Mustererkennung statt Selektoren, Tests in TypeScript oder No Code. Aktuell laufen 60 von 270 Fällen in etwa drei Stunden; angestrebt sind 210 plus in 60 bis 90 Minuten per Parallelisierung.
Umar Khan [1] ist Lead Quality Engineer bei der Deutschen Bahn Fernverkehr AG. Er verantwortet die Qualitätssicherung und Testautomatisierung in verschiedenen Digitalisierungsprojekten. Seit 2018 arbeitet er daran, mehr Standards und Automatisierung in die Projekte zu bringen und auch Legacy-Anwendungen mithilfe von KI-Tools zu modernisieren. Moderne Qualitätssicherung und Testautomatisierung faszinieren ihn besonders. Jonas Menesklou [2] ist Mitgründer und Geschäftsführer von AskUI, einem Tech-Startup, das sich auf KI-gestützte Automatisierungslösungen spezialisiert hat. Mit einem Hintergrund in Softwareentwicklung vom Karlsruher Institut für Technologie verfolgt er die Vision, eine neue Generation von Automatisierungslösungen zu entwickeln.
Bei diesem Podcast dreht sich alles um Softwarequalität: Ob Testautomatisierung, Qualität in agilen Projekten, Testdaten oder Testteams – Richard Seidl und seine Gäste schauen sich Dinge an, die mehr Qualität in die Softwareentwicklung bringen.
Die aktuelle Ausgabe ist auch auf Richard Seidls Blog verfügbar: "Legacy Apps automatisiert – Umar Usman Khan und Jonas Menesklou [4]" und steht auf YouTube bereit [5].
URL dieses Artikels:
https://www.heise.de/-11099263
Links in diesem Artikel:
[1] https://www.linkedin.com/in/uukhan/
[2] https://www.linkedin.com/in/menesklou
[3] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[4] https://www.richard-seidl.com/de/blog/legacy-automatisierung
[5] https://youtu.be/-Q469d1Rr9Y
[6] mailto:mdo@ix.de
Copyright © 2025 Heise Medien
(Bild: Ole.CNX / Shutterstock.com)
Wie KI-Agenten Prozesse beschleunigen und Softwareentwickler zu Architekten komplexer Modernisierung machen.
Agentic Coding ist zu einem festen Bestandteil des Entwicklungsalltags geworden. KI-Agenten planen, implementieren, testen und dokumentieren Code in kurzer Zeit. Teams orchestrieren spezialisierte Assistenten, statt jede Änderung von Hand zu schreiben. Neben KI-Assistenten wie GitHub Copilot und Chat-Modelle wie ChatGPT treten autonome Agenten, die ganze Entwicklungsschritte übernehmen.
Die Taktzahl steigt, doch der Bedarf an Leitplanken ebenso. Funktional korrekter Code reicht nicht, wenn Sicherheitsvorgaben, Latenzziele, Skalierbarkeit und Architekturkonventionen unbeachtet bleiben. Ohne ausreichendes Kontextwissen entfernen sich Systeme schleichend von ihrer ursprünglichen Architektur, Tests verlieren an Treffsicherheit und technische Schuld wächst.
Wie lassen sich Agenten in bestehende Softwarelandschaften integrieren, wo liegen ihre Grenzen bei nicht-funktionalen Anforderungen? Welche Rollen und Prozesse tragen sie in der Praxis und welche Prüfungen in Pipelines helfen, Tempo und Tragfähigkeit zusammenzubringen? Fragen wie diese beantwortet der vorliegende Artikel.
Neben GitHub Copilot und den Chatmodellen von Anthropic und OpenAI (ChatGPT) gibt es inzwischen eine neue Klasse von Werkzeugen: autonome Agenten. Sie übernehmen ganze Entwicklungsschritte von der Planung bis zur Integration. Man findet sie heute als IDE-Integrationen, etwa in Visual-Studio-Code-Forks wie Windsurf und Cursor, als Terminal-integrierte Agenten wie Anthropics Claude Code oder OpenAIs Codex sowie als quelloffene Software wie OpenCode.
Diese Agenten entwerfen APIs, orchestrieren Tests-Suites, erkennen Sicherheitslücken oder strukturieren Legacy-Module um, ohne deren Verhalten zu ändern. Teilweise greifen sie dabei auf externe Wissensquellen zu, dokumentieren ihre Entscheidungen und führen selbstständig Korrekturschleifen durch. Dabei entsteht ein neues Arbeitsmodell: Entwicklerinnen und Entwickler interagieren nicht mehr mit einzelnen Tools, sondern orchestrieren ein Team spezialisierter Agenten. Dieser Wandel erfolgt nicht nur auf technischer Ebene, sondern auch in der Art, wie Projekte strukturiert und verantwortet werden.
Diese Entwicklung eröffnet viele Möglichkeiten, aber sie verschiebt auch die Verantwortung. Denn je mehr operative Aufgaben Agenten übernehmen, desto wichtiger wird die Fähigkeit, konzeptionelle Leitplanken zu setzen. Wer entscheidet, ob eine Lösung tragfähig ist? Wer kontrolliert, ob der erzeugte Code zur Zielarchitektur passt? Und was passiert, wenn Agenten sich widersprechen, nicht-funktionale Anforderungen ignorieren oder eigene Annahmen treffen, die fachlich nicht gewünscht sind?
Agentic Coding ist keine lineare Fortsetzung der Automatisierung, sondern eine neue Phase: Entscheidungen verlagern sich, Prozesse beschleunigen sich, Erwartungen verändern sich. Und genau deshalb braucht es einen reflektierten Umgang, und das nicht nur mit den Werkzeugen, sondern mit der Haltung zur Entwicklung selbst.
Agentic Coding zeigt eindrucksvoll, wie weit KI-gestützte Automatisierung inzwischen reicht. KI-Agenten übernehmen funktionale Aufgaben zunehmend zuverlässig: Sie entwerfen eine API, validieren ein Formular, integrieren eine Datenbankabfrage oft schneller als ein Mensch es kann. Die Ergebnisse sind jedoch nicht immer technisch korrekt; erst mit Expertenwissen und der Kontrolle nicht-funktionaler Anforderungen werden sie verlässlich, gut dokumentiert, lauffähig und auch deploybar.
Denn funktional heißt nicht belastbar. Denn sobald Anforderungen ins Spiel kommen, die über das reine „Was soll die Software tun“ hinausgehen – etwa wie schnell sie reagieren muss, wie sicher oder wartbar sie sein soll – entstehen neue Lücken. Genau hier beginnt der Bereich der nicht-funktionalen Anforderungen und mit ihm die typischen Schwächen heutiger Agenten.
Nicht-funktionale Anforderungen beschreiben das „Wie“ eines Systems: Wie performant soll ein Service unter Last reagieren? Wie sicher sind Schnittstellen gegen Angriffe geschützt? Wie skalierbar ist ein neues Modul, wenn sich das Geschäftsmodell ändert? Welche Architekturkonventionen gilt es einzuhalten, um langfristig wartbare Systeme zu erhalten?
Solche Anforderungen sind selten direkt aus einem Prompt ableitbar. Sie sind oft implizit, kontextabhängig, unternehmensspezifisch und dynamisch. Viele Entscheidungen in einer Software haben kausale Abhängigkeiten, beispielsweise weil ein anderes Team Vorgaben gemacht oder eine bestimmte Lösung gewählt hat. Oft entstehen Anforderungen auch erst im Verlauf: Skalierbarkeit wird erst wichtig, wenn die Nutzerzahlen wachsen; Latenzanforderungen, wenn Echtzeitfunktionen kommen. Solche Zusammenhänge lassen sich kaum in einen kurzen Prompt pressen. Agenten, die nur lokal operieren (also auf einzelne Dateien oder Tasks fokussiert sind), haben keinen Blick für diese übergeordneten Aspekte.
Ein Beispiel: Ein Agent generiert eine neue REST-API in Rekordzeit, inklusive Tests und Dokumentation. Technisch korrekt, syntaktisch sauber, aber ohne Einbindung in bestehende Sicherheitsmechanismen, ohne Logging-Konzept und ohne Rücksicht auf Latenz oder Skalierbarkeit. Was auf den ersten Blick nach Produktivität aussieht, wird auf Systemebene schnell zum Risiko.
Ähnlich verhält es sich mit Architekturentscheidungen. Agenten arbeiten kontextbezogen, aber nur mit den Informationen, die sie zur Verfügung haben. Ob ein Modul in eine bestehende Schichtenarchitektur passt, ob bestehende Regeln verletzt werden oder ob zyklische Abhängigkeiten entstehen, bleibt ohne zusätzliche Kontrollmechanismen häufig unbemerkt. Fehlentscheidungen schleichen sich nicht ein, sondern sie skalieren sofort.
Ein Agent kann eine Methode korrekt implementieren, aber nicht erkennen, dass sie in einem sicherheitskritischen Pfad liegt. Er kann Tests schreiben, aber nicht bewerten, ob sie die geschäftskritische Logik tatsächlich absichern. Er kann den Code umstrukturieren, ohne zu wissen, dass er damit einen regulatorischen Rahmen berührt.
In der Praxis führt das zu einem paradoxen Effekt: Systeme entstehen schneller, wirken auf den ersten Blick vollständig und erzeugen dennoch technische Schuld, weil zentrale Qualitätsmerkmale fehlen.
Auch in puncto Testabdeckung zeigt sich ein wiederkehrendes Muster: Es entstehen zwar viele Tests, aber nicht zwingend die richtigen. Oft werden triviale Fälle abgedeckt, während Randbedingungen, Fehlerpfade oder geschäftskritische Logik unberücksichtigt bleiben. Die Illusion von Testabdeckung ersetzt keine belastbare Qualitätsstrategie.
Zusätzlich entstehen neue Herausforderungen auf der Metaebene: Wer kontrolliert den Output? Welche Rolle spielt menschliches Review, wenn Agenten Dutzende Commits pro Stunde erzeugen? Welche Metriken helfen bei der Bewertung? Und wie lässt sich verhindern, dass technische Schuld nicht nur bestehen bleibt, sondern automatisiert weiterwächst?
Funktionale Anforderungen lassen sich präzise spezifizieren, nicht-funktionale Anforderungen hingegen erfordern Kontext: Welche Lastszenarien sind realistisch? Welche Sicherheitsbedrohungen sind relevant? Welche Teamstrukturen, Prozesse und Toolchains beeinflussen die Wartbarkeit? Genau an dieser Stelle entstehen in agentenbasierten Entwicklungsprozessen typische Qualitätslücken.
Dieser Mangel zeigt sich besonders im Bereich Sicherheit. Studien verdeutlichen [1], dass 81 Prozent der Unternehmen wissentlich unsicheren KI-generierten Code ausliefern. Fast die Hälfte aller automatisiert erzeugten Codezeilen enthält laut dem Security-Unternehmen Veracode kritische Sicherheitslücken: Bei Java liegt die Fehlerquote sogar bei über 70 Prozent [2]. Cross-Site Scripting, Log-Injection und unzureichende Validierung gehören zu den häufigsten Schwachstellen.
Der eigentliche Konflikt entsteht dort, wo funktionale Perfektion und strukturelle Realität aufeinandertreffen. Ein Agent kann ein Modul perfekt neu schreiben und dabei gleichzeitig die bestehende Architektur beschädigen. Er kann eine Änderung vorschlagen, die lokal korrekt, aber global problematisch ist. Und er kann Optimierungen durchführen, die auf dem Papier effizient sind, aber nicht zur Strategie des Produkts passen.
In der klassischen Softwareentwicklung war der Prozess klar gegliedert: Ein Feature wurde entworfen, im Ticket beschrieben, anschließend implementiert, getestet und dokumentiert. Alles geschah sequenziell, oft über mehrere Tage mit Pausen zum Denken, Nachfragen und Entscheiden.
Heute sieht das anders aus. Der Einstieg beginnt meist mit einem Plan: Entwicklerinnen und Entwickler erarbeiten gemeinsam mit einem Agenten die Zielsetzung und brechen das Vorhaben in konkrete Arbeitspakete herunter, etwa welche Module anzupassen sind, welche Schnittstellen betroffen sind oder welche Testszenarien erforderlich werden. Ziel ist ein einfacher, klarer Plan, der das Konzept präzise abbildet.
Steht der Plan, übernimmt ein Implementierungsagent. Er iteriert über die Codebasis, setzt die Schritte um, erzeugt Codeänderungen und schreibt erste Tests. So entsteht ein nahtloser Ablauf vom Plan zur Umsetzung.
Dieser Ansatz lässt sich skalieren. Der Plan lässt sich in unabhängige Teilpläne zerlegen, die parallel bearbeitet werden können. Typisch ist die Trennung in Backend und Frontend mit einer verbindlichen API als Vertrag in der Mitte. Mehrere Agenten arbeiten dann parallel, liefern Codeänderungen und Tests zurück.
In der Praxis erledigen Agenten in einem solchen Workflow den Großteil der Arbeit. Die letzten Schritte liegen bei der Entwicklerin oder dem Entwickler: funktionale und nicht-funktionale Anforderungen prüfen, Randbedingungen schärfen, Prompts und Regeln nachziehen und die Ergebnisse so lange iterieren, bis ein Commit entsteht, den man verantworten kann.
Oft laufen mehrere Agenten gleichzeitig. Das Review bleibt jedoch beim Menschen. Er hinterfragt Annahmen, löst die schwierigen Punkte und führt die Änderungen zusammen.
Häufig entsteht dabei ein gestuftes Setup: ein Planungsagent im Terminal, ein Implementierungsagent in der Codebasis, ein Validierungsagent in der Pipeline, der die Ergebnisse gegen den ursprünglichen Plan prüft, und ein Integrationsagent, der Branches zusammenführt, Konflikte löst und die Einbindung orchestriert.
Die Geschwindigkeit ist hoch, die Kontexte wechseln schnell [3]. Die Herausforderung hat sich verlagert: nicht mehr möglichst schnell Code schreiben, sondern die richtigen Anforderungen fürs Produkt festlegen, sauber planen, den Code kritisch reviewen und die Integration am Gesamtsystem ausrichten.
Der Mensch steht am Anfang mit Anforderungen und Plan und am Ende mit Verantwortung für das Ergebnis. Nicht als reiner Umsetzer, sondern als Entscheider: Er bewertet Ergebnisse, korrigiert Fehler und behält das große Ganze im Blick. Genau das macht Agentic Coding nicht nur zu einem technologischen Sprung, sondern zu einer mentalen und strukturellen Neuordnung der Entwicklungsarbeit.
Diese Rolle ist anspruchsvoller, nicht einfacher. Denn sie erfordert Überblick über technische, fachliche und strukturelle Zusammenhänge, und das in hoher Taktung. Agenten generieren in Minuten, was früher Tage gedauert hat. Was dabei entsteht, muss nicht mehr geschrieben, aber bewertet, korrigiert und oft grundlegend hinterfragt werden. Das verschiebt die mentale Last: weg von der konkreten Umsetzung, hin zur strategischen und architektonischen Verantwortung.
Gleichzeitig verändert sich der Weg in die Branche. Die typischen Einstiegsaufgaben – kleinere Bugfixes, einfache Feature-Erweiterungen, Testimplementierungen – fallen zunehmend Agenten zu. Für den Nachwuchs bedeutet das: weniger Gelegenheiten zum Üben, aber höhere Erwartungen an das Verständnis komplexer Systeme. Wie junge Talente praktische Erfahrung und echte Verantwortung aufbauen können, ist derzeit eine offene Frage.
Ausbildung und Onboarding geraten unter Druck. Lernkurven gilt es neu zu denken, Curricula anzupassen und Praxisphasen bewusst zu gestalten. Die zentralen Kompetenzen der Zukunft liegen nicht im Syntaxverständnis, sondern in der Fähigkeit, mit Unsicherheit, Mehrdeutigkeit und systemischer Verantwortung umzugehen.
Agentic Coding ersetzt den Menschen nicht, aber es zwingt ihn, neue Rollen anzunehmen, etwa als Koordinator spezialisierter Agenten, als Architekt des Zielbilds oder als Kurator von Systemwissen. Nicht-funktionale Anforderungen bleiben der Bereich, in dem Kontrolle, Urteilskraft und Kontextwissen unersetzlich sind. Genau deshalb wird der Mensch nicht weniger wichtig, sondern an entscheidender Stelle gebraucht: dort, wo Software nicht nur funktioniert, sondern trägt.
Was Agentic Coding fundamental verändert, ist nicht nur das „Wie“ des Codens, sondern das Verhältnis zwischen Umsetzung und Struktur. Systeme werden heute schneller gebaut als je zuvor, doch die Architektur hinkt hinterher.
Denn Geschwindigkeit erzeugt neue Spannungsverhältnisse – zwischen kurzfristiger Umsetzbarkeit und langfristiger Wartbarkeit, zwischen individueller Autonomie von Agenten und kollektiver Kohärenz des Gesamtsystems sowie zwischen Mikroentscheidungen im Prompt und Makrostrukturen in der Architektur.
Viele Unternehmen stehen deshalb vor einer neuen Frage: Wie hält man architektonische Kontrolle in einem dezentralisierten, agentengesteuerten Entwicklungsprozess aufrecht? Was früher durch gemeinsame Codekonventionen, Architektur-Boards oder Pair Programming gelebt wurde, gilt es heute anders abzusichern [4], beispielsweise durch automatisierte Policies, semantische Validierung, dynamisches Linting oder architekturgetriebene CI/CD-Gates.
Auch das Rollenverständnis verschiebt sich: Nicht alle Entwicklerinnen und Entwickler orchestrieren künftig Agenten. Aber alle bewegen sich in einem System, das auf Kontrolle durch Struktur statt Kontrolle durch Beteiligung setzt. Der Softwarearchitekt bleibt die zentrale fachliche Instanz und verankert Entscheidungen in Regeln, Pipelines und Feedback-Schleifen, die den Entwicklungsprozess strukturieren.
Der eigentliche Produktivitätsgewinn durch Agentic Coding zeigt sich zukünftig nicht allein in schnellerem Output, sondern in der Fähigkeit, diesen Output strategisch zu binden: in bestehende Systemlandschaften, in organisatorische Prozesse und in technische Leitplanken.
Denn wenn Agenten künftig Software schreiben, wer schreibt dann die Regeln, an die sie sich halten?
URL dieses Artikels:
https://www.heise.de/-11092303
Links in diesem Artikel:
[1] https://www.techradar.com/pro/a-shocking-amount-of-companies-are-knowingly-shipping-insecure-code-so-what-can-be-done?utm_source=chatgpt.com
[2] https://www.veracode.com/press-release/continuous-protection-for-the-cloud-era-veracode-spotlights-latest-innovations-for-advanced-software-security/?utm_source=chatgpt.com
[3] https://temporal.io/pages/state-of-development-2025
[4] https://auditboard.com/blog/how-ai-agents-will-transform-internal-audit-and-compliance?utm_source=chatgpt.com
[5] mailto:mdo@ix.de
Copyright © 2025 Heise Medien
Alle Details zur Störungsmeldung ansehen Eigene Internetstörung melden
Alle Details zur Störungsmeldung ansehen Eigene Internetstörung melden