Im Backend sind Microservices etabliert, nun ist das Frontend dran. Microfrontends sind kein Hype, sondern moderne Softwarearchitektur.
Dem Monolithen zu Leibe rücken - auch im FrontendBild:
Taken / Pixabay
Im Backend ist die modulare Softwarearchitektur mit Microservices bereits als wegweisender Standard etabliert. Doch was wäre, wenn wir auch das Frontend aufteilen könnten? Wenn jedes fachliche Team, zum Beispiel Header, Produkte, Warenkorb, komplett autonom wäre und seine eigene Benutzeroberfläche entwickeln, testen und deployen könnte?
Genau hier setzen Microfrontends an. Sie übertragen das Prinzip der Microservices ins Frontend. Dieser Artikel knüpft an unseren vorherigen Beitrag zur Umstellung von Monolithen auf Microservices (g+) an. Dieses Mal fragen wir uns: Wie lässt sich das ins Frontend übertragen? Wann lohnt sich der Einsatz solcher Microfrontends und welche Tools und Frameworks können wir nutzen?
Kurze Störungen und Aussetzer in Videokonferenzen gibt es regelmäßig – mit messbaren negativen Folgen.
Das Vertrauen sinkt durch technische Störungen im Gespräch.Bild:
Getty Images/Pool
Eine Studie der Columbia University in New York, USA, die in Nature veröffentlicht wurde, kommt zu dem Schluss, dass Glitches bei Videogesprächen das Gegenüber negativ beeinflussen. Dafür wurden mehrere Experimente durchgeführt und Gerichtsanhörungen ausgewertet.
Unter anderem wurden Bewerbungsgespräche gezeigt, einmal mit technischen Störungen, einmal ohne. Das allein hätte ausgereicht, um die Wahrscheinlichkeit für eine Empfehlung der betrachteten Person zu verringern.
Gab es solche kurzen Unterbrechungen und Verpixelungen bei einem digitalen Arztbesuch, sank das Vertrauen in das medizinische Urteil um 20 Prozent, obwohl der Ratschlag derselbe blieb.
Auswirkungen in echten Situationen
Zusätzlich wurden knapp 500 echte Anhörungen vor Gericht ausgewertet. Bei reibungsloser Videoübertragung hätten im Anschluss 60 Prozent der Täter Bewährung erhalten. Traten Störungen auf, sank die Quote auf unter 50 Prozent. Das ist nicht nur für die USA relevant, auch in Deutschland sind Videogespräche vor Gericht mittlerweile üblich.
Erklärt wird dieses sinkende Vertrauen mit Uncanniness , dem Gefühl, etwas Unnatürliches zu erleben, wodurch Unwohlsein ausgelöst wird. Vergleichbar soll es sein mit der Wahrnehmung von Robotern, die möglichst menschlich gestaltet sind, sich dann aber völlig unnatürlich bewegen und verhalten.
Kognitive Belastung
Eine weitere Erklärung für die Ergebnisse liefert Wirtschaftspsychologie Johannes Basch in Medscape . Die Glitches würden die Aufmerksamkeit auf die technischen Aspekte des Gesprächs lenken.
Dadurch fällt es schwerer, dem Inhalt des Gesprächs zu folgen und eine durchdachte Entscheidung im Zuge des Besprochenen zu treffen. Stattdessen wird parallel darüber nachgedacht, wie die Störung behoben oder minimiert werden könnte.
Ein Reddit-User hat DDR5-RAM gekauft. Der hat aber nicht aufs Mainboard gepasst. Der Grund: Unter der Verkleidung versteckte sich DDR4 -RAM.
Unternehmen wie Corsair verkaufen DDR5-RAM mit Verkleidung.Bild:
Corsair
Die DRAM-Preise steigen immer weiter und mit den enormen Steigerungen gibt es auch immer mehr Scam-Versuche. So wurde auch der Käufer eines neuen RAM-Kits betrogen. Als die Person ihren RAM in die Sockel auf dem Mainboard stecken wollte, passten die Riegel nicht. Offenbar waren die DDR5-Riegel keine echten DDR5-Sticks. "Ich kann nicht glauben, wie enttäuscht ich bin" , schreibt die Person auf Reddit .
Stattdessen hat eine betrügerische Partei DDR4-RAM genommen und das Heatsink eines Corsair-Vengeance-DDR5-Moduls auf die Sticks gesteckt, berichtet der User auf Reddit. Als das Kit geöffnet wurde, löste sich die Verkleidung bereits vom RAM – ein erstes Warnsignal. Anschließend passte auch der Stick nicht auf das Mainboard, da DDR4 inkompatible Pinouts benutzt und die Nocke für den Sockel im Vergleich zu DDR5 an einem anderen Ort platziert ist.
Amazon gab Geld zurück
Bei DDR5 befindet sich diese Nocke ungefähr in der Mitte der Kontaktleiste. Bei DDR4 ist sie um einige Millimeter zur Seite versetzt. User können auf dieses Detail achten, wenn sie ihren DDR5-RAM etwa gebraucht von privaten Händlern kaufen. Generell können Bilder aber auch gefälscht sein, vor allem, wenn die Sticks von einem Drittanbieter im Amazon Marketplace gekauft werden. So erhielt auch die Person auf Reddit ihr Scam-Produkt.
In diesem Fall konnte die betroffene Person zumindest ihr Geld zurückerhalten und das Produkt zum vor einigen Wochen bestehenden Preis noch einmal kaufen. Mittlerweile war dieser nämlich bereits wieder um 100 US-Dollar angestiegen. Die Preise werden weiterhin hoch bleiben – und damit steigen wohl auch die Möglichkeiten für Betrugsversuche, viel Geld zu machen.
Der stärkste Prozessor in einem Smartphone, ein neuer Partner für die Kamera und ein wechselbares Design – das Realme GT 8 Pro hat viel zu bieten.
Hätten Sie das gewusst? Weltweit verkauft Realme mehr Smartphones als Motorola, Huawei oder Google. In Deutschland ist der Name hingegen nicht allzu bekannt. Mit dem GT 8 Pro klopft das Unternehmen auch hier in der Oberklasse an. In der kleinen Speichergröße mit 12/256 GByte ist das Realme GT 8 Pro für 999,99 Euro UVP zu haben, als Dream Edition mit 16/512 GByte kostet es 200 Euro mehr.
Für den Preis erhält man ein schickes, sauber verarbeitetes Smartphone mit kantigem Aluminiumrahmen. An der rechten Seite haben Einschalter und Lautstärkeregler ihren Platz, unten die SIM-Schublade und der USB-Anschluss. An der Oberseite hat Realme dem GT 8 Pro einen Infrarotsender verpasst, der aus dem Smartphone eine Universalfernbedienung machen kann. Das Gehäuse ist nach IP68/IP69 gegen Staub und Wasser geschützt, auch Strahlwasser mit hohem Druck hält es aus.
Als Farben stehen Blau und Weiß zur Wahl. Die Rückseite überzieht Realme mit einem Material namens „paper-like Leather“ – ein Mix aus Papier und Kunststoff mit weicher Oberfläche, die ein bisschen nach Papier aussieht. Das fasst sich angenehm an und zeigt sich unempfindlich gegen Fingerabdrücke, dürfte mit der Zeit aber zerkratzen, wenn man das Smartphone nicht in die mitgelieferte, sehr unscheinbare Gummihülle packt.
URL dieses Artikels: https://www.heise.de/-11113932
Links in diesem Artikel: [1] https://www.heise.de/tests/Huawei-Pura-80-Ultra-Google-freies-Smartphone-im-Test-11087925.html [2] https://www.heise.de/tests/Im-Vergleich-Apple-iPhone-17-vs-Google-Pixel-10-und-Samsung-Galaxy-S25-10661807.html [3] https://www.heise.de/tests/Foto-Duell-Apple-iPhone-17-Pro-Max-gegen-Google-Pixel-10-Pro-XL-10669211.html
Chinesische Forscher entwickeln eine neue Technologie, die Abwärme erstmals effizient über 200 °C anheben kann – ein Durchbruch für klimafreundliche Industrie.
In vielen Industrien entscheidet die verfügbare Temperatur über die Machbarkeit ganzer Prozesse. Während Brauereien oder Papierfabriken mit 100 bis 200 Grad Celsius auskommen, benötigen Keramikbrenner, Metallschmelzen oder chemische Anlagen oft weit mehr.
Herkömmliche Wärmepumpen versagen jedoch genau dort, wo es heiß wird. Mechanische Kompressoren leiden unter extremer Belastung, geeignete Arbeitsmedien sind rar, und die Leistungsfähigkeit sinkt rapide.
Alternative Ansätze wie Absorptionssysteme [1]mit Wasser und Lithiumbromid erreichen typischerweise nur etwa 100 Grad. Wärmetransformatoren schaffen zwar knapp 200 Grad, doch Korrosionsprobleme und chemische Instabilität begrenzen ihren Einsatz.
Dabei ist das ungenutzte Potenzial enorm: Heiz- und Kühlprozesse [2] verschlingen global fast die Hälfte aller Endenergie, wobei die Industrie einen großen Anteil trägt. In China allein verpufft zwischen einem Zehntel und mehr als einem Viertel der Gesamtenergie [3] als ungenutzte Abwärme.
Die 200-Grad-Hürde und wofür Industrie wirklich Wärme braucht
Die Temperaturen, die in der Produktion benötigt werden, gehen weit auseinander. Färbereien, pharmazeutische Betriebe oder Destillationsanlagen benötigen moderate Wärme zwischen 100 und 200 Grad. Doch sobald es um Petrochemie, Metallverarbeitung oder Keramikherstellung geht, steigen die Anforderungen auf 200 bis über 1.000 Grad.
Klassische Dampfkompressionsanlagen stoßen oberhalb von 200 Grad an physikalische Grenzen. Die verwendeten Kältemittel zersetzen sich, Dichtungen versagen, und die Bauteile müssen extremen mechanischen Belastungen standhalten. Systeme mit Kohlendioxid als Medium erfordern Drücke, die technisch aufwendig zu beherrschen sind, und arbeiten dennoch mit unbefriedigender Effizienz.
Absorptionswärmepumpen liefern üblicherweise rund 100 Grad bei einem Temperaturanstieg von etwa 50 Grad. Passende Transformatoren erreichen Ausgabetemperaturen knapp unter 200 Grad – wiederum mit ähnlich begrenztem Hub.
Für energieintensive Branchen bedeutet das: Sie müssen auf fossile Brennstoffe [4] zurückgreifen, um die nötige Hitze zu erzeugen – mit entsprechenden Kosten und Emissionen.
Thermoakustische Ultrahochtemperatur-Wärmepumpe – wie Schall Wärme pumpt
Der Clou liegt im Verzicht auf rotierende oder oszillierende Maschinenteile. Stattdessen nutzt die Anlage intensive Schallwellen, die in einem abgeschlossenen System schwingen. Diese akustische Energie treibt den Wärmetransport von niedrigem zu hohem Temperaturniveau an – eine Verbindung aus dem historischen Stirling-Prinzip und moderner Thermoakustik.
Im Kern besteht das System aus Regeneratoren, Wärmetauschern und Resonanzröhren. Als Arbeitsgas dienen Edelgase wie Helium oder Stickstoff, die nicht kondensieren oder verdampfen müssen. Das umgeht viele Materialprobleme, die konventionelle Systeme plagen.
Die Schallwellen wirken wie ein unsichtbarer Kolben, der Wärme "bergauf" schiebt. Da keine Reibung durch bewegliche Teile entsteht, versprechen die Forscher hohe Zuverlässigkeit im Langzeitbetrieb.
Frühere Experimente zeigten, dass das Konzept auch mit sehr niedrigen Ausgangstemperaturen funktioniert. Selbst bei einer Quelle von nur 49 Grad läuft das System; bei 67 Grad Eingang wurden bereits 214 Grad Ausgang gemessen.
Messwerte und Leistungsdaten – was der Prototyp leistet
Die Versuchsreihen dokumentieren einen klaren Zusammenhang: Mit steigender Zieltemperatur sinkt die Effizienz. Wenn die Abgabe von 220 auf 270 Grad klettert, fällt der Heizleistungskoeffizient von 0,43 auf 0,36. Parallel dazu reduziert sich die abgegebene Wärmeleistung von knapp 2.900 auf etwa 2.700 Watt.
Bei einem Systemdruck von fünf Megapascal erreichte der Prototyp seine besten Werte: ein Heizleistungskoeffizient von 0,41 und ein relativer Carnot-Wirkungsgrad von 33 Prozent, bei einer zugeführten Wärmeleistung von rund 1.900 Watt.
Höherer Druck von acht Megapascal und eine Motortemperatur von 350 Grad erlaubten eine maximale Wärmezufuhr von fast 2.900 Watt. Dabei lag der Heizleistungskoeffizient bei 0,36 und der relative Carnot-Wirkungsgrad bei 29 Prozent.
Diese Kennzahlen verdeutlichen die physikalischen Kompromisse: Höhere Temperaturen erfordern mehr Antriebsenergie und senken die Gesamteffizienz. Dennoch arbeitet die Anlage selbst bei 270 Grad stabil und liefert verwertbare Wärmemengen im mehrstelligen Kilowatt-Bereich.
Die globale Energiebilanz zeigt die Tragweite: Heiz- und Kühlprozesse beanspruchen fast die Hälfte des weltweiten Endenergieverbrauchs. Davon entfällt wiederum nahezu die Hälfte auf industrielle Anwendungen.
Allein in China entweichen zehn bis 27 Prozent der eingesetzten Energie ungenutzt als Abwärme. Selbst eine teilweise Rückgewinnung und Aufwertung dieser Energie könnte den Brennstoffbedarf spürbar senken.
Praktische Einsatzfelder zeichnen sich bereits ab: Solarwärme oder heiße Abgase aus Produktionsprozessen könnten auf das für Keramikbrennen, Metallschmelzen oder chemische Synthesen nötige Niveau gebracht werden. Chemiefabriken könnten ihre eigene Prozessabwärme im Kreislauf führen und für nachfolgende Schritte wiederverwenden.
Luo Ercang betont, dass Ultrahochtemperatur-Wärmepumpen ein Schlüssel zur Erreichung der Klimaneutralität [11]in energieintensiven Industrien sein könnten.
Roadmap und nächste Schritte – wohin die Reise geht
Das Forschungsteam richtet seinen Blick nun auf noch anspruchsvollere Anwendungen. Im Fokus stehen Prozesse in Petrochemie, Metallurgie und Keramikproduktion, die Temperaturen weit über 270 Grad verlangen.
Die Wissenschaftler skizzieren Betriebsbereiche zwischen 600 und 1.600 Kelvin – umgerechnet 327 bis 1.327 Grad Celsius. Bis zum Jahr 2040 sollen Wärmepumpen entstehen, die Temperaturen bis 1.300 Grad liefern können.
Als Antriebsquellen kommen laut den Forschern nukleare Druckwasserreaktoren [12] mit etwa 300 Grad oder konzentrierende Solarkollektoren mit 400 bis 500 Grad infrage. Damit ließe sich die Ausgabetemperatur auf 500 bis 800 Grad steigern – ein Weg zu fossilfreier Hochtemperaturwärme für die Schwerindustrie.
Sollten diese Ziele erreicht werden, könnten Solaranlagen oder Kernreaktoren künftig direkt die Hitze bereitstellen, die zum Schmelzen von Eisenerz oder zur Aluminiumraffination nötig ist – ohne Kohle, Öl oder Gas.
URL dieses Artikels: https://www.heise.de/-11122849
Die neue US-Sicherheitsstrategie zeichnet einen Bruch in den transatlantischen Beziehungen. Welche Bedeutung hat das für die künftige Rolle Ankaras?
Die neue amerikanische Sicherheitsstrategie erschüttert Europa in seinen Grundfesten. Die Anfang Dezember 2025 von der Trump-Administration veröffentlichte Nationale Sicherheitsstrategie [1] (NSS) verkündet einen radikalen Paradigmenwechsel [2], der die Grundannahmen der Nachkriegszeit verwirft.
Das Dokument stellt den Grundsatz, dass Amerikas erste und wichtigste Sicherheitszone sein eigenes Territorium und sein eigenes Volk ist, in den Mittelpunkt und vollzieht damit formal den Übergang von der globalen Polizistenrolle zu einer harten innenpolitischen Wendung und kontinentalen Befestigung.
Diese neue Vision bedeutet insbesondere für den "alten Kontinent" jenseits des Atlantiks ein strategisches Erdbeben. Die USA betrachten Europa nicht länger als einen Verbündeten, der gemeinsame Werte und Sicherheit trägt, sondern als einen Akteur, der aufgrund von Migration, demografischem Wandel und Überregulierung einen "Zivilisationsverfall" erlebt und seine Probleme zukünftig selbst lösen muss.
Die Strategie belebt zudem die Monroe-Doktrin [3] wieder und erklärt Lateinamerika und die Karibik zur exklusiven amerikanischen Einflusssphäre. In Asien wird China als einziger Rivale der USA definiert.
Der Nahe Osten gilt nicht mehr als Gebiet "endloser Kriege". Ziel der USA ist es, ihr Engagement radikal zu reduzieren und die Last auf lokale Initiativen zu verlagern, es sei denn, es geht darum zu verhindern, dass eine feindliche Macht die Energiequellen kontrolliert.
Intervention in Europa und die Reaktionen
Doch der härteste und umstrittenste Teil der Strategie ist gewiss Europa gewidmet. Das Papier porträtiert Europa nicht nur als strategischen Partner, sondern auch als Interventionsgebiet in einer Krise.
Das Dokument [4] stellt fest: Europas wirtschaftlicher Niedergang wird von der realen und noch düstereren Aussicht auf eine zivilisatorische Auslöschung überschattet. Als Quelle dieser Bedrohung werden fehlgeleitete Migrationspolitiken genannt, von denen behauptet wird, dass sie die demografische Struktur des Kontinents verändern und die gesellschaftliche Spaltung vertiefen.
Der EU wird vorgeworfen, "die politische Freiheit und Souveränität zu untergraben", die Redefreiheit zu zensieren und die politische Opposition zu unterdrücken. Das Dokument erklärt ausdrücklich, dass es "den Widerstand gegen den derzeitigen Kurs Europas innerhalb der europäischen Staaten stärken" möchte.
Betonung von Verteidigung und Unabhängigkeit
Die Reaktionen aus Europa, insbesondere aus Deutschland, zeigen eine entschlossene Betonung von Verteidigung und Unabhängigkeit.
Der deutsche Bundeskanzler Friedrich Merz (CDU) kommentierte das Dokument zunächst als "nicht überraschend" und versuchte, Gelassenheit zu demonstrieren. In einer Erklärung [5] gegenüber der Tagesschau sagte er nüchtern:
"Manches darin ist nachvollziehbar, manches darin ist verständlich, manches darin ist für uns aus der europäischen Sicht inakzeptabel".
Nur ein paar Tage später wurde Merz, während des CSU-Parteitages in München, allerdings deutlicher [6]:
"Die Jahrzehnte der Pax Americana sind für uns in Europa und auch für uns in Deutschland weitestgehend vorbei."
Nato, solange es eben geht
Sein Ziel, so der Kanzler, sei nun "die Aufrechterhaltung des Nato-Bündnisses, solange es eben geht". Das klingt nicht nach strategischer Partnerschaft, sondern nach einer Operation am offenen Herzen der Militärallianz.
Doch Merz ging noch weiter. Es glaube niemand, dass das nur eine kurzfristige Erscheinung sei, warnte der Kanzler:
"Trump ist nicht über Nacht gekommen, und diese Politik der Amerikaner wird über den Tag nicht einfach wieder gehen."
Der Wandel ist strukturell
Der Wandel, so seine düstere Prognose, sei strukturell, nicht persönlich. Es könne sogar sein, dass mit dem Nachfolger oder der Nachfolgerin (von Trump) es noch schwieriger werde. Damit verkündete Merz eigentlich nach Olaf Scholz, der kurz nach dem Beginn des Ukraine-Kriegs die "Zeitenwende [7]" ausrief, eine weitere historische Zeitenwende. Eine Zeitenwende 2.0.
Der ehemalige SPD-Außenminister Sigmar Gabriel [8] bezeichnete diese Zeitenwende 2.0 als "Epochenbruch". Sein CDU-Kollege Norbert Röttgen [9] sprach von einer "fundamentalen Veränderung von 80 Jahren amerikanischer Europa-Politik". Und Roderich Kiesewetter [10], ebenfalls von der CDU, pointiert das neue Machtgefüge noch schärfer:
"Wir werden von Washington mittlerweile eher wie ein lästiger Klientelstaat behandelt, der Tribut zahlen soll, oder wie ein wirtschaftlicher Gegner, den man kleinhalten muss."
Einhellige Diagnose
Die Diagnose ist quer durch die politischen Lager und Medien einhellig. Clemens Wergin [11], Chefkorrespondent der Welt, konstatiert, die neue Nationale Sicherheitsstrategie der USA trage "deutlich europafeindliche Züge". Es geht hier nicht mehr um das übliche transatlantische Gezerre.
Die Worte, die in Berlin und Brüssel fallen, beschreiben den Beginn einer neuen geopolitischen Ordnung. Eine Ordnung, in der Europa seinen privilegierten Platz verloren hat und sich neu behaupten muss.
Mit dem neuen Strategiepapier der USA befürchten laut einer ZDF-"Politbarometer"-Umfrage [12] 90 Prozent der Deutschen, dass die Amerikaner sich mehr in die inneren Angelegenheiten Europas einmischen werden und finden dies nicht in Ordnung.
Existenzielle Probleme ...
Diese Vertrauenserosion stellt zugleich ein direktes Problem für die Funktionsfähigkeit der Nato dar. Während der Jahresbericht des Militärischen Abschirmdienstes [13] (MAD) vor einer "außergewöhnlich hohen" Spionage- und Sabotagebedrohung warnt, bleibt unklar, wie willig die USA zukünftig als Sicherheitspartner in dieser Angelegenheit sein werden. Denn Deutschland und viele weitere europäische Nato-Staaten beziehen einen Großteil ihrer Informationen immer noch von amerikanischen Diensten.
Das zweite große Problem ist das Risiko der ideologischen Spaltung und Einmischung in die Innenpolitik. Das Lob der Amerikaner für "patriotische Parteien" und das Versprechen, "Widerstand zu fördern", haben nicht nur das Potenzial, extrem rechte Parteien wie die AfD in Deutschland und andere verfassungsfeindlichen Parteien in Europa zu stärken.
Diese Strategie ist bereits Realität. Die AfD ist alles andere als traurig [14] über das neue US-Strategiepapier. Die engen Kontakte und Delegationsreisen [15] von AfD-Politikern zu Trumps Republikanern, aber auch die offene Unterstützung durch Persönlichkeiten wie Elon Musk, Donald Trump oder J.D. Vance für die Belange der AfD sprechen Bände.
... und Chancen für Deutschland und Europa
Doch in dieser Krise liegt auch eine Chance: Sie könnte Europa endlich den lang überfälligen Schub zu echter strategischer Autonomie verleihen, so zumindest die Lesart einiger Kommentatoren. Paul Middelhoff [16] von der Zeit argumentiert beispielsweise in einem Kommentar mit dem Titel "Jammern hilft nicht", dass Europa endlich handeln müsse, um sich zu erneuern und listig, wendig und stark zu werden.
Seiner Meinung nach müssten diejenigen, die die liberale Demokratie bewahren wollen, sich vom Status quo verabschieden. Europa muss handeln: seine Verteidigungsindustrie enger verzahnen und eine starke, eigenständige Abschreckung aufbauen.
Die größte Hürde liegt jedoch in der nuklearen Frage. Muss und kann der französisch-britische Atomschirm zu einem europäischen werden? Diese unbequeme Diskussion, so fordern [17] es Kommentatoren [18] der Frankfurter Allgemeinen Zeitung, ist nun unausweichlich.
Im Wirtschaftsbereich dagegen müsse Europa angesichts steigender Insolvenzen und ausländischer Übernahmen dringend politische Maßnahmen ergreifen [19], um seine industrielle und technologische Souveränität zu sichern.
Wie die ehemalige Bundeskanzlerin Angela Merkel [20] warnte, zwingt außerdem der "große Kampf" mit den USA über die Regulierung zukunftsträchtiger Technologien wie künstlicher Intelligenz Europa dazu, die Kapazität zu entwickeln, seine eigenen Werte und Interessen zu schützen.
Strategische Möglichkeiten für die Türkei
Die derzeitigen weltpolitischen Veränderungen schaffen zugleich Möglichkeiten für die Republik Türkei, die mit ihrer vorteilhaften geostrategischen Position am Rande des euro-atlantischen Systems steht. Wie Marion Sendker in der Weltanalysiert [21], ändert sich Deutschlands Haltung gegenüber der Türkei mit dem Rückzug der USA grundlegend.
Die Aussage [22] des deutschen Außenministers Johann Wadephul bei seinem Besuch in Ankara, dass es Zeit für eine neue Seite in den Beziehungen sei, ist nicht zufällig. Angesichts der russischen Bedrohung und des schwindenden amerikanischen Engagements entdeckt Europa – etwas verspätet – den strategischen Wert der Republik Türkei. Dies verleiht der Türkei eine beispiellose Verhandlungsmacht.
Als die zweitgrößte Armee der Nato ist die Regionalmacht in der Lage, die Abschreckungslücke in Osteuropa und dem Kaukasus zu füllen. Gleichzeitig erhöhen ihre Vermittlungskapazität im Ukraine-Krieg, ihr Einfluss im Nahen Osten und in Afrika sowie im Kaukasus und auf dem Balkan, aber auch ihre Schlüsselrolle in der Migrationsfrage ihren Wert in den Augen Brüssels und Berlins.
Wie der türkische Außenminister Hakan Fidan in einem Interview [23] mit Carolina Drüten in der Welt betonte, sieht die Türkei diese Situation als Chance, "in der neuen Weltordnung unser eigenes Gravitationszentrum zu schaffen".
Suche nach Gleichgewicht im Zeitalter der Unsicherheit
Fortschritte [24] in konkreten Bereichen der Beziehungen zu Europa, wie der Modernisierung der Zollunion, der Visaliberalisierung und der Zusammenarbeit in der Verteidigungsindustrie sind zum Greifen nahe.
Die neue US-Sicherheitsstrategie ist gewiss ein Wendepunkt, der das Ende der nach 1945 errichteten internationalen Ordnung markiert. Nach dieser zweiten historischen Zeitenwende sind entschlossene Schritte Europas auf dem Weg zu militärischer, wirtschaftlicher und technologischer Autonomie unvermeidlich.
Vor dem Hintergrund des Ausmaßes der strategischen Zeitenwende, den Europa erlebt, und die Notwendigkeit, die eigene Sicherheitsarchitektur fundamental neu zu denken, tritt die Türkei aufgrund ihrer geografischen Lage, militärischen Kapazität und diplomatischen Wirkung als ein Akteur hervor, dessen Bedeutung enorm zunimmt.
Die Bedeutung der Türkei nimmt enorm zu
Diese Position bringt auch Risiken mit sich. Der Erfolg der Türkei wird nicht nur von kurzfristigen taktischen Gewinnen abhängen, sondern von einer ausbalancierten Außenpolitik, die ihre langfristige Stabilität bewahrt.
Fest steht: Die historische Entfremdung zwischen den beiden Seiten des Atlantiks kündigt den Beginn einer neuen, von Unsicherheit geprägten Ära für alle regionalen Akteure an. In dieser Ära werden, während sich die alten Bündnisstrukturen auflösen, neue Machtgleichgewichte und Kooperationen eine neue strategische Karte für Europa, die Türkei und die Welt zeichnen.
URL dieses Artikels: https://www.heise.de/-11118342
Palantir analysiert Daten für Behörden. Die Software erkennt Muster und trifft Entscheidungen. Doch wer kontrolliert die Macht der Algorithmen?
Wenn Software über Leben und Tod von Menschen entscheidet und außergerichtliche Tötungen auch in Ländern möglich werden, welche die Todesstrafe schon längst abgeschafft haben, steht letztlich das gesamte Rechtssystem auf dem Spiel und die Sicherheit der Bevölkerung wird aufs Massivste gefährdet.
Wenn die Macht nicht mehr bei demokratischen Institutionen liegt
Eine Software, die Zusammenhänge darstellt, die in einer immer komplexer werdenden Welt von einzelnen Menschen kaum mehr zu überblicken sind, erweist sich als geradezu wundersame Verheißung, welche eine Sicherheit vorspiegelt, die es bislang noch nie gegeben hat.
Palantir zählt weltweit zu diesen Unternehmen, das immer mehr Polizeibehörden begeistert, die Spuren sichern wollen, die ohne umfangreiches Datenwissen nicht mehr zu verfolgen sind. Sie setzen daher auf diese Datenanalyse-Plattform, die sich mit ihrem gesammelten Datenwissen sich zu einer international immer bedeutenderen Größe entwickelt.
Im Zusammenhang mit dem Wirken seiner Firma zeigt sich, dass der Palantir-CEO Alex Karp, der in Frankfurt Philosophie bei Jürgen Habermas studierte und 2002 bei der Sozialpsychologin Karola Brede mit einer auf Deutsch verfassten Dissertation promoviert wurde, mindestens genauso stark polarisiert wie seine Firma. Besonders in der Migrationspolitik vertritt Karp ziemlich radikale Ansichten.
Palantirs Programme, welche große Datenmengen analysieren, verknüpfen und in ihnen Muster erkennen können, haben sich in der westlichen Welt weitgehend durchgesetzt. Und dies nicht nur bei finanzkräftigen Konzernen, sondern auch bei Geheimdiensten, Streitkräften oder Polizeibehörden.
Dieser durchaus illustre Kundenkreis macht Palantir zu einem der umstrittensten Unternehmen der Welt. In Deutschland ist bundesweite Einführung bei der Polizei umstritten. Bei der Bundeswehr soll die "Maven [2]"-Software von Palantir im Gefolge der Nato implementiert werden.
Das Maven Smart System (MSS) ist eine KI-gestützte Plattform, die Palantir für das US-Militär und die Nato entwickelt hat, um riesige Mengen an Militärdaten von Satellitenbildern über Drohnenaufnahmen und Sensordaten zu analysieren und zusammenzufügen, um Entscheidungen in Echtzeit zu beschleunigen und die Zielerfassung zu verbessern. Der Bedarf an menschlicher Analyse wird reduziert.
Wie automatisierte Überwachung den Rechtsweg aushebeln kann
Welche Macht die Datensammlungen von Palantir entfalten können, wird in einer Szene aus ener Diskussionveranstaltung deutlich, wo der Satz fällt "Wir töten auf der Basis von Metadaten [3]".
Die Kaltschnäuzigkeit und das sichtbare Machtbewusstseins, mit der die Aussage vorgebracht wird, zeigt, wo sich die für die Software Verantwortlichen verorten. Dass die geheimdienstliche Datensammlung, auf die sich die kurze Sequenz aus dem Jahr 2014 bezieht, später als teilweise rechtswidrig erkannt wurde, hilft den Betroffenen nicht mehr.
Das Ereignis, das für den Erfolg von Palantir letztlich den Startschuss gab, war der 11. September, dessen Hintergründe bis heute nicht wirklich aufgeklärt sind, in dessen Folge jedoch der "war on terror" begann.
Die traumatischen Anschläge in den USA läuteten eine wahre Datenrallye ein, die sich Karp von der CIA finanzieren ließ und dafür Militärs und Geheimdienstlern erfolgreich versprach, dass man mit Software und Daten Terroristen fangen und künftige Anschlagspläne vereiteln könne.
Palantir ist seit mehreren Jahren auch in Deutschland Geschäftspartner von Behörden, zuerst bei der Polizei in Hessen.
Der Einsatz bei der Polizei in Hessen wurde dann jedoch ein Fall für das Bundesverfassungsgericht. Im Februar 2023 stellt das Gericht in seinem Urteil [4] fest, dass die gesetzliche Grundlage teilweise verfassungswidrig ist, weil sie der Polizei erlaubt mit einem Klick umfassende Profile von Personen, Gruppen und Milieus zu erstellen.
In Zukunft müssen gesetzliche Regelungen zur automatisierten Datenanalyse konkret darstellen, welche polizeilichen Datenquellen in welcher Form zum Data-Mining genutzt werden dürfen.
Wünscht die Bevölkerung hierzulande mehr Überwachung?
Wenn sich die Bevölkerung in Deutschland mehr Videoüberwachung im öffentlichen Raum [5] wünscht, wird dies ohne eine automatisierte Software zur Bildauswertung und Datenaggregation kaum Nutzen ergeben, weil man sonst eine personelle Infrastruktur etablieren müsste, gegenüber der die Überwachung in der verflossenen DDR ein Kinderspiel gewesen wäre.
Wer die Überwachungssoftware, die in den USA beheimatet ist, hierzulande kontrollieren will, ist bislang nicht einmal ansatzweise geklärt.
Ganz offensichtlich hat die deutsche Öffentlichkeit bislang keine Vorstellung davon, welche Gemengelage aus der privaten, wirtschaftsgetriebenen Datenschnüffelei in einer Kombination mit hoheitlichen Aufgaben entstehen kann, wenn die Aggregierung dieser nicht näher gefassten Daten letztlich zu Konsequenzen führen kann, die das demokratisch legitimierte Rechtssystem im Interesse eines nicht näher definierten Sicherheitsanspruchs aushebeln kann.
Das aktuelle Beispiel der politischen Wandlungen jenseits des Atlantiks sollte eine Warnung sein.
Am Boden unterlegen, wehrt sich die Ukraine per Luftoffensive. Doch trotz neuer Waffensysteme erreichen kaum Flugkörper ihr Ziel. Warum?
Eine ATACMS-Rakete, hier gezeigt an einem Standort von RheinmetallBild:
Ronny Hartmann / AFP via Getty Images
Die Ukraine reagiert auf die russische Übermacht am Boden mit einer Luftoffensive gegen die militärische Infrastruktur und industrielle Ziele Russlands. Neue Marschflugkörper aus eigener Produktion, neue US-Lenkwaffen und Lieferungen bewährter Systeme wie ATACMS erlauben seit Neuestem auch Angriffe auf Ziele tief im feindlichen Hinterland.
Bislang scheinen sie die russische Luftverteidigung jedoch kaum zu beeinträchtigen. Auch die russischen Luftstreitkräfte, die sich über der Ukraine selbst zurückhalten, haben über dem Kampfgebiet und erst recht im heimatlichen Luftraum nach wie vor die unangefochtene Kontrolle. Wie wirksam können die neuen Waffensysteme also sein und worum handelt es sich dabei genau?
Was können ATACMs, Neptun, Flamingo und ERAMs?
Seit einiger Zeit liefern die USA wieder ATACMS-Artillerieraketen (ATACMS steht für Army Tactical Missile System, zu deutsch etwa: taktisches Heeres-Raketensystem) an die Ukraine. Die ersten Exemplare hatte das Land 2023 erhalten, zusammen mit Storm-Shadow-Marschflugkörpern aus Großbritannien und Scalp-Marschflugkörpern aus Frankreich. Für kurze Zeit waren auch weitreichende Tomahawk-Marschflugkörper im Gespräch.
Um von ausländischen Waffenlieferungen unabhängiger zu werden, entwickelt die Ukraine zudem selbst Marschflugkörper . Das ältere Produkt ist die Neptun, die ursprünglich gegen Schiffe eingesetzt wurde und unter anderem den russischen Lenkwaffenkreuzer Moskwa versenkte.
Inzwischen fliegt eine verbesserte Version mit größerer Reichweite zum Angriff auf Landziele. Die Puffy Neptun (dickliche Neptun) genannte Lenkwaffe bringt es auf bis zu 1.000 km Reichweite. Der Spitzname kommt wahrscheinlich von den größeren, beulenförmigen Zusatztanks auf der Außenhaut.
Hochwertige Ziele wie Raffinerien anvisiert
"Die Basisversion verfügt über eine Reichweite von 280 bis 300 km bei einem 150-km-Gefechtskopf. Der im März 2025 getestete Long Neptune RK360L erreicht 1.000 Kilometer Reichweite bei 260 Kilogramm Sprengladung. Die neue Variante soll eine taktische Lücke schließen, um Ziele mittlerer Reichweite anzugreifen" , schreibt der österreichische Fachjournalist Georg Mader im Onlinemagazin Militär Aktuell .
Hinzu kommt die FP-5 Flamingo , die erstmals im August gegen Ziele auf der Krim eingesetzt wurde. Die Flamingo fliegt bis zu 3.000 km weit und hat damit eine ähnliche Reichweite wie die BGM-109 Tomahawk . Sie trägt einen 1.000-kg-Sprengkopf. Geplant ist eine Produktion von um die 2.500 Stück.
Die Ukraine greift mit diesen Flugkörpern hochwertige Ziele wie Raffinerien, Treibstoffdepots oder militärische Einrichtungen an. Und das mit einigem Erfolg, denn die Treibstoffknappheit, die jüngst in Russland zum Problem wurde, ist das Ergebnis dieser Angriffe. Drohnenschwärme eignen sich hierfür weniger, weil sie wegen ihrer kleinen Sprengladungen nur Brände, aber keine nachhaltigen Zerstörungen verursachen.
Geplant sind bis zu 3.500 dieser Lenkbomben. ERAM ist eine Kombination aus einer herkömmlichen 227-kg-Fliegerbombe und einem Anbausatz mit Flügeln und Elektronikeinheit. Sie wird von Kampfflugzeugen abgeworfen und erzielt Reichweiten zwischen 280 und 450 km, je nach Flughöhe und Flugbahn. Sie erreicht Geschwindigkeiten um 0, 6 Mach. Die Navigation beruht auf GPS-Daten.
ERAM wurde seit Juli 2024 von den beiden US-Firmen Coaspire und Zone 5 Technolgies entwickelt. Ziel war ein preiswerter und leicht herzustellender Flugkörper.
Die Firmen wollen 83 Gleitbomben pro Monat produzieren, das wären 996 Bomben pro Jahr. ERAM hat eine größere Reichweite als die bisher an die Ukraine gelieferten Lenkbomben. Sie soll es der ukrainischen Luftwaffe leichter machen, Ziele hinter der Front wie Kommandoposten, Depots, Artillerie- oder Raketenstellungen zu treffen.
Allerdings ist die ukrainische Militärführung auch beim Einsatz dieser Waffen nicht autonom. Ziele für ERAM müssen vom US-Militär genehmigt werden, ebenso Ziele für die ATACMS-Raketen.
Für ihre neuen Marschflugkörper braucht die Ukraine wie in der Vergangenheit Zugriff auf westliche Zieldaten. Unter US-Präsident Joe Biden war das wenig problematisch – er gab zuletzt sogar den Einsatz von ATACMS gegen Ziele tief im russischen Hinterland frei. Sein Nachfolger Donald Trump stellte nicht nur die Waffenlieferungen ein, sondern bis vor Kurzem auch die Übermittlung von Aufklärungsergebnissen.
Wie die neuen Waffen im ukrainischen Arsenal den Verlauf des Krieges beeinflussen, wird einmal davon abhängen, wie viele tatsächlich geliefert werden. Zum anderen hängt der Erfolg oder Misserfolg auch davon ab, wie effektiv die russische Luftverteidigung ist.
Sie konnte sich bislang immer wieder an neue Waffensysteme anpassen, ATACMS und Gleitbomben abschießen und die GPS-gestützte Navigation stören.
Waffensysteme wie Neptun und die FP-5 Flamingo starten von mobilen Startrampen. ATACMS braucht spezielle Werferfahrzeuge. ERAM wird dagegen von Flugzeugen gestartet. Die ukrainische Luftwaffe nutzt dafür ihre verbliebenen Kampfflugzeuge aus ehemals sowjetischer Produktion sowie die seit Neuestem gelieferten westlichen Kampfflugzeuge.
Allerdings ist die Anzahl der verfügbaren Maschinen klein. Ehemals sowjetische Typen wie die Su-27, Mig-29 und der Schwenkflügelbomber Su-24 wurden für den Einsatz westlicher Lenkwaffen umgerüstet, aber ihr Einsatz leidet unter ständigen russischen Luftangriffen und Ersatzteilmangel.
Die Verluste sind hoch. Von den Su-24-Bombern dürfte nur noch eine einstellige Zahl einsatzbereit sein.
Zudem ist die ukrainische Luftwaffe gezwungen, ihre Flugzeuge immer wieder zu verlegen und von Behelfsflugplätzen zu operieren. Nur so entgeht sie den ständigen russischen Angriffen durch Drohnen und Marschflugkörper.
Der Westen liefert nach langen Diskussionen Kampfflugzeuge. Allerdings sind das keine wirklich modernen Maschinen. Belgien, die Niederlande, Dänemark und Norwegen liefern bis zu 80 F-16-Flugzeuge aus Überschussbeständen. Diese Länder führen gerade die F-35 ein.
Von den F-16 sind um die 20 bereits in der Ukraine im Einsatz. Frankreich hat ein halbes Dutzend Mirage-2000-5F-Jets geliefert, die vorher zu Jagdbombern umgerüstet wurden. Ein Flugzeug ist bereits abgestürzt, und eine weitere Maschine dient in Frankreich zur Ausbildung.
Wirklich modern sind die Kampfjets nicht
Wahrscheinlich liefert das Land bis zu 20 Flugzeuge an die Ukraine. Die Jets stehen zur Verfügung, weil Frankreich seine Mirage-2000-Kampfflugzeuge gerade durch Dassault Rafales ersetzt.
Die F-16-Jets stammen aus den frühen 1980er Jahren und wurden vor knapp 20 Jahren modernisiert. Auch die Mirage 2000 datiert ursprünglich aus den 1980ern. Allerdings wurde Version 2000-5 in den 1990ern produziert.
Wirklich modern und den russischen Kampfflugzeugen gewachsen sind sie nicht. Sie sind etwa genauso alt wie die ukrainischen Kampfflugzeuge aus ehemals sowjetischer Produktion.
Ukrainische Kampfflugzeuge können nicht direkt über dem Kampfgebiet operieren. Es sind auch zu wenige, um die russische Luftwaffe wirksam herausfordern zu können. Bodenziele in der Kampfzone oder dahinter können sie nur treffen, indem sie Lenkbomben oder Flugkörper aus der Distanz einsetzen.
Meist fliegen sie in geringer Höhe an, um nicht vom feindlichen Radar erfasst zu werden, steigen zum eigentlichen Schuss auf Höhe, um dann in niedriger Höhe wieder abzufliegen. Die F-16 fliegen mittlerweile fast 80 Prozent aller Einsätze, müssen aber auch das ukrainische Hinterland gegen russische Angriffe verteidigen.
Die ERAMs haben etwa die doppelte Reichweite der bisher verwendeten J-DAMs und anderer westlicher Präzisionswaffen. Damit können ukrainische Flugzeuge auch Ziele tiefer im russischen Hinterland treffen.
Die Ukraine beharrt auf ihrer Forderung nach F-16 des neuesten Modells. Mit moderner Avionik und stärkeren Triebwerken sind das faktisch andere Flugzeuge.
Zwar hat die Ukraine jüngst Vereinbarungen zur Lieferung von 100 französischen Rafales und 150 schwedischen Saab Gripen-Kampfjets abgeschlossen. Aber das sind Absichtserklärungen, keine verbindlichen Kaufverträge. Und die Finanzierung ist bis heute nicht geklärt.
Die russischen Luftstreitkräfte und Luftabwehr sind im Krieg eher stärker als schwächer geworden. Das Land hat seine Produktion gesteigert, kann Kriegsverluste ersetzen und zusätzliche Einsatzverbände aufstellen . Außerdem setzen die Luftstreitkräfte ihren Modernisierungskurs fort, den sie bereits einige Jahre vor dem Krieg begonnen hatten.
Hinzu kommen neue Luft-Luft-Lenkwaffen wie die R-77M. Zudem verfügt die russischen Luftwaffe über Langstreckenraketen, die wesentlich weiter reichen als die Luft-Luft-Lenkwaffen der Ukraine, etwa die amerikanische AIM-120.
Die R-77M ist die neueste Version der Vympel R-77, des russischen Gegenstücks zur US-Lenkwaffe AIM-120. Sie fliegt bis zu 190 km weit und wird seit dem Sommer über der Ukraine eingesetzt.
Hinzu kommen R-37M-Raketen mit einer Reichweite von bis zu 400 km. Ursprünglich für den schweren Jäger MiG-31 entwickelt, kann sie auch von anderen Typen wie der Su-35 verschossen werden.
Modernes Jäger-Arsenal
Das Rückgrat der Kampfverbände bilden Produkte aus dem Hause Sukhoi. Die Su-35 und die Su-30 sind Weiterentwicklungen der Sukhoi Su-27 Flanker aus den 1980er Jahren.
Beide werden sowohl als Jäger als auch für Luftangriffe eingesetzt. Außerdem verfügen beide Flugzeuge über eine Schubvektorsteuerung. Die Triebwerksdüsen ihrer Saturn-Triebwerke sind um zwei Achsen schwenkbar .
Das macht die russischen Jets extrem wendig. Sie können mit unorthodoxen Manövern anfliegenden Raketen ausweichen und sich im Luftkampf auch gegen kleinere und wendigere Kampfflugzeuge behaupten.
Deutlicher Vorteil gegenüber ukrainischen Kampfjets
Beide verfügen über weit reichende Radargeräte, Infrarot- und Restlichtsensoren sowie passive Sensoren, mit denen sie gegnerische Suchradars erkennen und orten können. Hinzu kommen Datalinks zu Bodenstationen und anderen Flugzeugen.
Insgesamt verschafft ihnen das einen deutlichen Vorteil gegenüber ukrainischen Kampfjets. Auch die Bekämpfung von Marschflugkörpern ist kein Problem.
Russland verfügt über eines der modernsten Kampfflugzeuge
Russland setzt die Flugzeuge als Jäger, Jagdbomber und zur Bekämpfung feindlicher Radarstellungen ein. Das Flugzeug ersetzt die ältere Su-27 und wurde zunächst nur in kleiner Zahl gebaut.
Als es technische Probleme mit der Entwicklung des Stealth-Jägers Su-57 gab, rüstete man die Su-35 mit Sensoren und Elektronik aus dem Su-57-Programm aus. Das macht das Flugzeug zu einem der gegenwärtig wohl modernsten Kampfflugzeuge überhaupt.
Die Su-30 ist ein zweisitziges Mehrzweckkampfflugzeug, das Russland in mehreren Versionen baut und auch exportiert. Bei der russischen Luftwaffe und der Marineluftwaffe fliegt die Version Su-30SM, außerdem noch eine kleine Zahl reiner Su-30-Allwetterjäger, die in den 1990ern geliefert wurden. Die Su-30SM-Maschinen dienen in der Regel als Jagdbomber. Bei Bedarf bekämpfen sie aber auch ukrainische Kampfflugzeuge und Marschflugkörper. Für die neuen Neptun- und Flamingo-Lenkwaffen sind sie gefährliche Gegner.
Die Bekämpfung von tieffliegenden Marschflugkörpern ist eine der Aufgaben, für die der schwere Allwetterjäger MiG-31 Foxhound entwickelt wurde. Die MiG-31 wurde noch zu Sowjetzeiten aus der MiG-25 Foxbat abgeleitet.
Das zweisitzige Flugzeug erreicht Geschwindigkeiten um Mach 3 und fliegt bis zu 3.300 km weit. Trotz seines Alters ist die Foxhound der wohl leistungsstärkste Allwetterjäger der Welt.
Russland modernisiert die Flugzeuge seit Jahren. Dabei sind nicht nur verbesserte Abfangjäger entstanden, sondern auch Trägerflugzeuge für die Hyperschallwaffe Kinshal .
Es kann Flugzeuge und Flugkörper auf große Distanz bekämpfen und vom russischen Luftraum aus weit in die Ukraine hinein wirken. Die Stärken der Foxhound liegen nicht im nahen Luftkampf. Die elektronischen Sensoren decken einen großen Bereich vor und unter dem Flugzeug ab.
Durch seine hohe Geschwindigkeit kann es schnell auch weiter entfernte Einsatzräume erreichen. Datalinks erlauben die Vernetzung mit Bodenstationen und anderen Kampfflugzeugen. Allerdings kommt es durch die große Reichweite des Bordradars auch ohne Unterstützung durch Frühwarnflugzeuge aus.
Das russische Gegenstück zum F/A-22 Raptor
Die Sukhoi Su-57 , im Nato-Code Felon (Schwerverbrecher) genannt, ist das russische Gegenstück zum schweren US-Stealth-Jäger F/A-22 Raptor. Nach längerer und problembehafteter Entwicklungszeit begann 2019 der Bau einer kleinen Versuchsserie.
Seit 2022 läuft die Serienfertigung. Die Zahl der abgelieferten Flugzeuge wurde 2024 und 2025 deutlich gesteigert. Jedoch ist zur Zeit nur ein Regiment, ein Verband in Geschwaderstärke, mit der Felon ausgerüstet. Die etwa 40 Maschinen werden sporadisch im Ukraine-Krieg eingesetzt.
Die Su-57 soll im nächsten Jahrzehnt ältere Kampfflugzeug-Typen ersetzen. Die einsitzige Maschine wird von Saturn-Triebwerken mit Schubvektorsteuerung angetrieben. Dadurch ist sie extrem wendig und kann auch extreme Flugmanöver fliegen, um etwa anfliegenden Luft-Luft-Lenkwaffen auszuweichen.
400 km Radar und 360-Grad-Lagebild
Die Waffenlast kann aus Luft-Luft-Lenkwaffen, Marschflugkörpern, Lenkbomben oder ungelenkten Bomben bestehen. Sie wird in Waffenschächten transportiert, um die Radarrückstahlfläche gering zu halten.
Das Radar reicht bis zu 400 km weit, also wesentlich weiter als die Radare ukrainischer Kampfflugzeuge . Außerdem sorgen optische und elektronische Sensoren für ein 360-Grad-Lagebild. Mit anderen Flugzeugen, Bodenstationen, Awacs-Maschinen und Flugabwehr-Stellungen können ständig Daten ausgetauscht werden.
Die mittleren Entfernungen deckt die Buk-Familie ab. Weiter reichende Systeme wie die noch aus Sowjetzeiten stammende S-300 und die modernen S-400 und S-500 verteidigen nicht nur das russische Hinterland, sondern reichen auch tief in die Ukraine hinein.
Die S-300 erreicht Höhen um die 28 km und fliegt bis zu 200 km weit. Mit 30 km Gipfelhöhe und 380 km Reichweite ist die S-400 deutlich leistungsfähiger. Die S-500, in Dienst seit 2021, bringt es auf 100 km Gipfelhöhe und rund 500 Kilometer km.
Die S-300 war die sowjetische Antwort auf die US-amerikanische Patriot. Die S-400 wurde aus der S-300 entwickelt, die S-500 dagegen ist eine Neuentwicklung, die auch Ziele oberhalb der Atmosphäre und Hyperschallwaffen bekämpfen kann. Allerdings ist wohl nur ein einziges Regiment mit S-500 ausgerüstet.
Koordiniert wird das alles von mobilen und ortsfesten Leitständen und Radarsystemen. Dabei stützt sich die Flugabwehr nicht im selben Maß wie die Nato auf Awacs-Flugzeuge, sondern meist auf Radar am Boden. Zur Drohnennabwehr und zum Aufklären von Artilleriestellungen gibt es zusätzlich mobile akustische Systeme.
Bisher hat sich die russische Abwehr an jede ukrainische Neuerung und auch an die aus dem Westen gelieferten Waffensysteme angepasst. Sie hat gelernt, Präzisionswaffen wie die JDAM-Gleitbombe, ATACMS-Raketen, französische Hammer-Präzisionswaffen, aber auch Drohnen und Marschflugkörper abzuwehren. Das hat zur Folge, dass nur ein kleiner Teil der von der Ukraine gestarteten Flugkörper seine Ziele tatsächlich erreicht.
Zwar zeigen die hohen Zahlen an produzierten Drohnen und die neuen Marschflugkörper, dass die Ukraine erfolgreich ihre eigene Industrie an den Krieg angepasst hat und dabei auch innovativ ist. Aber zahlenmäßig bleibt die Ukraine unterlegen.
Sie kann genug Flugkörper produzieren, um Russland immer wieder aufzuhalten, den Nachschub für die Front zu stören und um militärische Einrichtungen hinter der Front zu treffen. Ernsthaft bedrohen kann sie die russische Fähigkeit, Krieg zu führen, nicht. Dazu dürften die avisierten Produktionszahlen für die Neptun und die FP-5 Flamingo nicht ausreichen. Und auch die Zahlen von aus dem Westen gelieferter Flugkörper reichen nicht.
GTA: Vice City aus 2002 ist ein Liebling der Fans. Ein Projekt von Enthusiasten macht den vierten Teil der Serie nun im Browser spielbar.
Im Browser durch die Straßen von Vice City: DOS Zone bringt den Klassiker ins Web.Bild:
Rockstar Games
Mit GTA 6 geht es bald wieder zurück nach Vice City. Bis dahin kann man die Stadt auch in GTA: Vice City unsicher machen – dank eines Fanprojekts auch im Browser. Auf DOS Zone läuft das Spiel dank ReVC und Webassembly auf PC, Smartphone oder Tablet direkt im Browser. Nur die Webseite aufrufen und losspielen funktioniert allerdings nicht.
Legale eigene Spielkopie nötig
Die Webseite nutzt ReVC, ein Projekt , das die Engine von GTA:Vice City Reverse-engineered hat und sie auf modernen Systemen lauffähig macht. Dabei handelt es sich aber nur um die Engine selbst, die Assets unterliegen dem Copyright und sind nicht frei verfügbar. Wer Vice City mit ReVC spielen möchte, muss sich im Besitz der Originaldateien des Spiels befinden.
Nicht anders ist es bei der Browserversion. Zunächst hatten die Entwickler des Projekts eine Demoversion zu Verfügung gestellt, in der man die ersten Spielminuten bis zum ersten Speicherpunkt auch ohne eigene Spieldateien spielen konnte. Inzwischen ist diese Funktion aufgrund unerwartet hoher Popularität und des Risikos einer Sperre durch den Rechteinhaber aber nicht mehr vorhanden.
Wer möchte, kann aber weiterhin seine eigenen Spieldateien hochladen. Mittels Prüfsumme verifiziert DOS Zone die Echtheit der Daten. So soll verhindert werden, dass Nutzer illegale Versionen des Spiels für die Webversion verwenden.
Projektinhaber gehen nicht von Copyright-Verstößen aus
Laut den Entwicklern dient dieses Projekt ausschließlich dazu, "die technischen Möglichkeiten der Ausführung komplexer Spiel-Engines in einer modernen Webumgebung zu demonstrieren" . Man entspreche mit diesem Projekt allen relevanten Copyright-Richtlinien und respektiere die Rechte am geistigen Eigentum aller Rechteinhaber. Ob GTA-Publisher Take Two Interactive dieser Auffassung folgt oder versucht, gegen die Seite vorzugehen, bleibt abzuwarten.
Dazu gehören ein experimentelles Frachtraumfahrzeug, eine Technik-Demomission und ein Fernerkundungs satellit .
Weltraumaufnahme des Raumfrachters B300-LBild:
AZ Space
In China sind in den vergangenen Tagen zwei Raketenstarts durchgeführt worden, bei denen ein kommerzielles, experimentelles Frachtraumschiff sowie ein Fernerkundungssatellit in den Orbit befördert wurden. Bei einem Raketenstart kam es zu einem kleinen Zwischenfall, der wohl keine bedeutenden Auswirkungen hatte.
Wie es für die chinesische Berichterstattung üblich ist, sind nicht besonders viele Informationen über die in die Erdumlaufbahn beförderten Satelliten bekannt.
Was wurde ins All befördert?
Der erste Start erfolgte am 13. Dezember 2025 um 2:08 Uhr (MEZ). Die Feststoffrakete Kuaizhou-11 flog vom Satellitenstartzentrum Jiuquan in der Gobi-Wüste aus ins All. An Bord befanden sich das Dear-5-Raumfahrzeug der kommerziellen Firma AZ Space sowie der Xiwang-5-(Phase-II)-Satellit der staatlichen Chinesischen Akademie für Raumfahrttechnik (Cast: China Academy of Space Technology).
Der zweite Raketenstart erfolgte am 16. Dezember 2025 um 4:17 Uhr (MEZ). Dabei wurde der Fernerkundungssatellit Ziyuan-3 (04) vom Kosmodrom Taiyuan aus ins Weltall befördert.
Während des Aufstiegs der zweiten Rakete sei die Wärmedämmung von der Verkleidung der Lange-Marsch-4A-Rakete abgefallen, heißt es in einer Pressemitteilung des chinesischen Luft- und Raumfahrtwissenschafts- und Technologieunternehmens (Casc: Aerospace Science and Technology Corporation), dem Hauptauftragnehmer für das chinesische Weltraumprogramm.
Die Mission vom 13. Dezember
Der Satellit Dear-5 basiert auf dem kleinen Frachtraumschiff B300-L, das eine Nutzlastkapazität von bis zu 300 Kilogramm und ein Volumen von 1,8 Kubikmetern hat. An Bord befinden sich laut AZ Space insgesamt 34 experimentelle Nutzlasten von Forschungsinstituten, Universitäten und Unternehmen.
Angaben des Unternehmens zufolge soll die Mission den Weg für breitere Weltraumforschung, die Verifikation und Entwicklung von Raumfahrttechnologien sowie für den Transport von Fracht ebnen. Deswegen würden die Experimente auch bis zu einem Jahr andauern. Einen Tag nach dem Start veröffentlichte AZ Space ein Update , das besagt, dass alle Tests reibungslos verliefen.
Das Unternehmen AZ Space wurde 2019 gegründet und zielt darauf ab, astronautische Orbitalflüge durchzuführen. Die robotische Testphase dafür soll während der Jahre 2027 und 2028 erfolgen.
Die Vorgängermission Dear-1 startete im Dezember 2023 an Bord einer Hyperbola-1-Feststoffrakete des chinesischen Raumfahrtunternehmens iSpace – nicht zu verwechseln mit iSpace aus Japan, dem Raumfahrtunternehmen, das sich auf die robotische Monderforschung spezialisiert hat. Die Dear-3-Mikrogravitations-Forschungsplattform ging im Dezember 2024 jedoch beim Orbitalstart mit einer Kinetica-1-Rakete vom kommerziellen chinesischen Startanbieter CAS Space verloren.
Über Xiwang-5 (Phase II) ist wenig bekannt. Dieser Satellit soll jedoch nicht mit dem Xiwang-1-Amateurfunk- und Bildungsmikrosatelliten, der im Dezember 2009 ins All geschickt wurde, im Zusammenhang stehen. Der neue Satellit scheint eine Technologie-Demomission zu sein. Die Cast gibt an , dass der Satellit technisch anspruchsvolle und zahlreiche große Systemschnittstellen besitzt. Über das Raumfahrzeug selbst und seine Ziele ist dagegen nichts bekannt.
Die Mission vom 16. Dezember
Der Fernerkundungssatellit Ziyuan-3 (04) wurde von Cast entwickelt und ist Teil eines langjährigen nationalen und zivilen Raumfahrtinfrastrukturprogramms. Er verfügt über eine Stereo-Mapping-Kamera, eine Multispektralkamera und einen Laserhöhenmesser.
Laut der Cast-Tochterfirma Casc stellt Ziyuan-3 (04) hochpräzise Datenprodukte für wichtige, natürliche Ressourcenoperationen wie den Aufbau geografischer Informationsressourcen bereit. Außerdem sei der Satellit in der Lage, Erhebungen und Monitoring natürlicher Ressourcen, Landraumplanung und Landnutzungskontrolle sowie Überwachung und Durchsetzung natürlicher Ressourcen durchzuführen.
Wer über die Regelaltersgrenze hinaus arbeitet, soll künftig deutlich weniger Steuern zahlen. Doch nicht alle profitieren gleichermaßen.
Die Aktivrente ist da: Ab dem 1. Januar 2026 können Beschäftigte, die über die Regelaltersgrenze [1]hinaus arbeiten, bis zu 24.000 Euro jährlich steuerfrei hinzuverdienen. Mit dem Gesetz sollen ältere Arbeitnehmer motiviert werden, auch nach Erreichen des Rentenalters weiterzuarbeiten und somit dem Fachkräftemangel entgegenzuwirken.
Steuerfreier Arbeitslohn von bis zu 24.000 Euro jährlich
Die Aktivrente sieht einen Steuerfreibetrag von 2.000 Euro monatlich vor. Aufs Jahr gerechnet sind das 24.000 Euro, die Beschäftigte über der Regelaltersgrenze steuerfrei hinzuverdienen können. Darüber hinausgehende Beträge werden normal besteuert.
Der Freibetrag wird monatsbezogen gewährt – allerdings nur für Kalendermonate, in denen die Voraussetzungen tatsächlich vorliegen, berichtete die Verbraucherplattform gegen-hartz.de [2]. Maßgeblich ist der Zeitpunkt der Tätigkeit, nicht der Zahlungszufluss.
Wer beispielsweise im März 2026 die Regelaltersgrenze erreicht, erhält den Freibetrag ab April für die verbleibenden neun Monate des Jahres. Das ergibt 18.000 Euro steuerfreien Arbeitslohn. Liegt der Monatsverdienst bei 2.400 Euro, bleiben 2.000 Euro steuerfrei. Nur auf die übrigen 400 Euro fällt Lohnsteuer an.
Eine wichtige Änderung gegenüber früheren Entwürfen: Der steuerfreie Betrag unterliegt nicht dem Progressionsvorbehalt. Das hatte die Wirtschaftsprüfungsgesellschaft EY [3] berichtet und berief sich dabei einen Referentenentwurf. Und so wurde es dann auch beschlossen.
Ein zuvor bekannt gewordener Entwurf für ein Arbeitsmarktstärkungsgesetz hatte noch vorgesehen, die Aktivrente in die Berechnung des individuellen Steuersatzes einzubeziehen. Diese Regelung ist nun gestrichen.
Aktivrente: Wer profitiert und wer nicht?
Begünstigt sind ausschließlich sozialversicherungspflichtige Einkünfte aus nichtselbständiger Arbeit nach Paragraf 19 des Einkommensteuergesetzes. Das stellt KPMG klar [4]. Selbstständige, Freiberufler sowie Land- und Forstwirte fallen nicht unter die Aktivrente. Auch geringfügig Beschäftigte in Minijobs und Beamte sind ausgeschlossen – letztere, weil für sie keine Sozialversicherungspflicht besteht.
Wer eine vorgezogene Altersrente bezieht, kann die Aktivrente nicht nutzen. Erst mit Erreichen der Regelaltersgrenze – derzeit 67 Jahre, einschließlich der Übergangsregelung für Geburtsjahrgänge bis 1963 – greift der Freibetrag. Auf einen tatsächlichen Rentenbezug kommt es dabei nicht an, wie die Fachzeitschrift Betriebs-Beraterbetont [5].
Nicht alle Einnahmen aus einem Arbeitsverhältnis sind begünstigt. Ausgenommen bleiben laut KPMG etwa Zuwendungen bei Betriebsveranstaltungen, Versorgungsbezüge wie Ruhegelder oder Witwenrenten, laufende Beiträge zur betrieblichen Altersversorgung sowie Abfindungen und Nachzahlungen für Zeiträume, in denen die Voraussetzungen der Aktivrente noch nicht vorlagen.
Lohnsteuerabzug erfolgt automatisch über ELStAM
Die Steuerfreiheit wird bereits im Lohnsteuerabzugsverfahren berücksichtigt. Arbeitgeber können die Aktivrente über die elektronischen Lohnsteuerabzugsmerkmale (ELStAM) abwickeln. Ein gesonderter Antrag ist nicht nötig. Allerdings ist die Begünstigung auf ein Arbeitsverhältnis beschränkt. Bei mehreren Jobs kann nur einer die Aktivrente nutzen.
Wer in Steuerklasse VI beschäftigt ist – etwa weil die Rente über eine andere Steuerklasse versteuert wird –, muss dem Arbeitgeber bestätigen, dass es sich um das einzige begünstigte Arbeitsverhältnis handelt. Das geht aus dem Gesetz hervor.
Die Regelung gilt für alle Beschäftigungsverhältnisse, unabhängig davon, wann der Arbeitsvertrag geschlossen wurde. Sowohl bestehende als auch neue Arbeitsverhältnisse sind erfasst.
Auswirkungen der Aktivrente auf die Sozialversicherung
Die Aktivrente ändert nichts an den geltenden Regeln zur Sozialversicherung. Das betont KPMG ausdrücklich. Voraussetzung für die Steuerfreiheit ist, dass der Arbeitgeber Beiträge zur gesetzlichen Rentenversicherung [6] oder Zuschüsse an eine berufsständische Versorgungseinrichtung entrichtet.
Arbeitnehmer, die die Regelaltersgrenze erreicht haben, sind in der Rentenversicherung versicherungsfrei. Sie zahlen daher keinen eigenen Rentenversicherungsbeitrag mehr. In der Kranken- und Pflegeversicherung bleibt die Beitragspflicht jedoch bestehen.
Neben dem Steuerfreibetrag bringt die Aktivrente eine weitere praktische Erleichterung: Das sogenannte Anschlussverbot wird für ältere Beschäftigte gelockert. Nach dem Teilzeit- und Befristungsgesetz dürfen Arbeitnehmer beim selben Arbeitgeber grundsätzlich nicht erneut befristet angestellt werden, sofern kein sachlicher Grund vorliegt.
Für Beschäftigte, die das reguläre Rentenalter erreicht haben, ist künftig auch eine befristete Weiterbeschäftigung beim bisherigen Arbeitgeber möglich. Das gilt zusätzlich zu unbefristeten oder sachlich befristeten Verträgen und erleichtert diesen Personen die Rückkehr in ihren alten Betrieb.
Aktivrente kommt zur Altersrente hinzu
Der steuerfreie Arbeitslohn aus der Aktivrente kommt zusätzlich zur gesetzlichen Altersrente [7]. Die Rentenzahlung selbst bleibt unverändert. Zusätzlich wirkt der allgemeine Grundfreibetrag, der für 2026 bei 12.348 Euro für Alleinstehende und 24.696 Euro für Ehepaare liegen soll.
Zusammengerechnet kann ein Alleinstehender damit im Jahr 2026 bis zu 36.348 Euro steuerfrei erzielen: 24.000 Euro aus der Aktivrente plus 12.348 Euro Grundfreibetrag für die Rente. Bei Ehepaaren erhöht sich die Summe entsprechend.
Ein Beispiel: Wer im Januar 2026 die Regelaltersgrenze erreicht und in Teilzeit [8] 1.800 Euro brutto im Monat verdient, zahlt auf diesen Arbeitslohn keine Steuern. Zusätzlich greift der Grundfreibetrag für die Rente. Erst oberhalb von 12.348 Euro Renteneinkünften im Jahr entsteht Steuerlast.
Teilzeitprämie und Überstundenzuschläge vorerst nicht umgesetzt
Ursprünglich sollte die Aktivrente Teil eines umfassenderen Arbeitsmarktstärkungsgesetzes werden. Ein im September bekannt gewordener Entwurf [9] sah neben der Aktivrente auch eine steuerfreie Teilzeitaufstockungsprämie und steuerfreie Überstundenzuschläge vor, berichtete EY.
Diese Maßnahmen wurden im verabschiedeten Aktivrentengesetz nicht berücksichtigt. Die Bundesregierung konzentrierte sich zunächst auf die Aktivrente als isolierte Maßnahme.
Kritik an der Aktivrente: Kosten, Effekte und Nachteile
Die Aktivrente könnte dem Staat teuer zu stehen kommen. Der Referentenentwurf rechnet mit Steuermindereinnahmen von rund 890 Millionen Euro jährlich für den Zeitraum 2026 bis 2030, verteilt auf Bund, Länder und Kommunen. Das Institut der deutschen Wirtschaft hat für das Wirtschaftsmagazin iwd.deeine Simulation durchgeführt [10]. Demnach muss der Fiskus auf Steuereinnahmen von mindestens 2,8 Milliarden Euro jährlich verzichten.
Allein durch bereits erwerbstätige Regelaltersrentner entgehen dem Staat mehr als 1,4 Milliarden Euro. Würde die Aktivrente auch auf Selbstständige ausgeweitet – was zur Gleichbehandlung nötig sein könnte –, kämen weitere 1,4 Milliarden Euro hinzu. Auch eine mögliche Ausdehnung auf langjährig Versicherte vor der Regelaltersgrenze würde zusätzlich 340 Millionen Euro kosten.
Ob die erhofften positiven Arbeitsmarkteffekte eintreten, ist laut iwd.de fraglich. Viele ältere Menschen arbeiten nicht primär aus finanziellen Gründen, sondern weil sie aktiv bleiben und soziale Kontakte bewahren wollen. Bleibt dies so, hätte die Aktivrente lediglich einen teuren Mitnahmeeffekt. Die Bundesregierung plant deshalb eine Evaluation nach zwei Jahren. Zusätzlich soll eine Rentenkommission [11] eingesetzt werden, die ihre Arbeit 2026 abschließen soll.
Auch verfassungsrechtliche Fragen stehen inzwischen im Raum. Ein Gutachten [12] des Wissenschaftlichen Dienstes des Bundestages kritisiert eine doppelte Ungleichbehandlung: zum einen nach Alter, da nur Personen jenseits der Regelaltersgrenze profitieren, zum anderen nach Tätigkeitsart, da abhängig Beschäftigte begünstigt werden, während Selbstständige und Beamte ausgeschlossen bleiben.
Das Gutachten sieht das steuerliche Leistungsfähigkeitsprinzip berührt. Klagen nicht begünstigter Gruppen gelten daher als möglich. Die kommenden Monate werden zeigen, ob die Aktivrente einer verfassungsrechtlichen Prüfung standhält.
Was Betroffene jetzt tun sollten
Wer von der Aktivrente profitieren möchte, sollte zunächst die eigene Regelaltersgrenze prüfen. Sie variiert je nach Geburtsjahrgang. Wichtig ist außerdem, dass es sich um eine sozialversicherungspflichtige Beschäftigung handelt. Minijobs und selbstständige Tätigkeiten sind nicht begünstigt.
Ein Gespräch mit dem Arbeitgeber über die Lohnsteuermerkmale kann sinnvoll sein. Die Steuerfreiheit wird dort automatisch hinterlegt. Wer den Einstieg in die Aktivrente frühzeitig plant, sichert sich mehr Monate mit Freibetrag. Eine steuerliche Prüfung der Rente kann zudem helfen, die Gesamtsteuerlast zu senken.
Die politische Debatte über die Aktivrente hält an. Fachverbände sehen Chancen, aber auch Risiken – insbesondere die Ungleichbehandlung gegenüber Selbstständigen und jüngeren Erwerbstätigen wird kritisiert. Ob das Gesetz in seiner jetzigen Form Bestand hat, werden mögliche Klagen und die geplante Evaluation zeigen.
URL dieses Artikels: https://www.heise.de/-10751279
China baut einen Flugplatz auf dem Atoll Woleai wieder auf – nahe Guam, der wichtigsten US-Militärbasis im Westpazifik. Das Projekt wirft Fragen auf.
China hat mit dem Wiederaufbau einer verfallenen Landebahn auf dem abgelegenen mikronesischen Pazifikatoll Woleai [1] begonnen, das nur etwa 640 Kilometer südlich der strategisch entscheidenden US-Militärbasis Guam liegt.
Das Projekt soll noch in diesem Monat abgeschlossen werden, wie Cleo Paskal von der Foundation for Defense of Democracies gegenüber der South China Morning Postmitteilte [2].
Die Landebahn auf Woleai, einem nur 4,5 Quadratkilometer großen Atoll im mikronesischen Bundesstaat Yap, wurde ursprünglich Anfang der 1940er Jahre von japanischen Streitkräften errichtet. Während des Zweiten Weltkriegs zerstörten amerikanische Bomber die Anlage, wodurch sie jahrzehntelang unbrauchbar blieb.
Chinesische Staatsfirma übernimmt Bauarbeiten
Das Unternehmen Shandong Hengyue Municipal Engineering Co. Ltd führt die Arbeiten durch, wie die Firma im Mai bei einer Zermonie anlässlich der Grundsteinlegung bekannt gab. An der Veranstaltung nahm auch der mikronesische Präsident Wesley Simina teil. Das Projekt wird gemeinsam mit dem mikronesischen Verkehrsministerium umgesetzt, berichtet [3]Newsweek.
Für die rund tausend Einwohner von Woleai soll die wiederaufgebaute Landebahn erhebliche Verbesserungen bringen. Bisher sind die Bewohner auf seltene, mehrere Tage dauernde Schiffstransporte zur nächstgelegenen Landebahn angewiesen. Die neue Infrastruktur soll nach Angaben auch die Gesundheitsversorgung sowie Bildung und Wirtschaft voranbringen.
Strategische Lage in der zweiten Inselkette
Die sicherheitspolitische Dimension des Projekts überlagert jedoch die zivilen Aspekte. Woleai liegt innerhalb der sogenannten zweiten Inselkette [4], einer strategisch wichtigen Gruppe von Pazifikinseln, die das US-Verteidigungsministerium als entscheidend für die Eindämmung chinesischer Militäraktivitäten betrachtet.
Die Föderierten Staaten von Mikronesien sind durch einen Compact of Free Association [5] (CoFA) mit den Vereinigten Staaten verbunden. Dieser Vertrag räumt Washington im Austausch für Sicherheitsgarantien und Wirtschaftshilfe ein Vetorecht gegen die militärische Präsenz Dritter ein. Mikronesien ist neben Palau und den Marshallinseln einer von drei Staaten im Südpazifik die so mit den USA verbunden sind.
Vorwurf wegen Versäumnissen
Brent Sadler, ein ehemaliger Navy-Offizier und Senior Research Fellow bei der rechts-religiös-libertären Heritage Foundation, kritisierte [6] im National Security Journal das amerikanische Vorgehen scharf. Die chinesischen Aktivitäten auf Woleai seien "fast so schlimm wie der geheime Sicherheitspakt von 2022, den China mit den Salomonen gesichert hat".
Sadler zufolge hätten das Innenministerium, regionale Militärkommandos und juristische Berater versagt, die CoFA-Bestimmungen durchzusetzen. Deshalb hält Sadler es für nötig "eine Untersuchung durchzuführen, um festzustellen, wie eine weitere chinesische Investition in militärisch nutzbare Anlagen so lange ungehindert voranschreiten konnte".
Militärische US-Planungen sehen vor, dass die Luftwaffe im Konfliktfall auf wie auf Woleai ausweichen kann, wenn andere Stützpunkte unter chinesischem Feuer stehen. Ein chinesischer Flugplatz mitten in der zweiten Inselkette würde diese Umsetzung solcher Pläne laut Sadler erheblich erschweren.
USA investieren nicht auf allen Inseln
Die Vereinigten Staaten haben ihre Infrastrukturinvestitionen in Mikronesien in den vergangenen Jahren erhöht. Washington hat zwei Milliarden US-Dollar für Projekte zur Verbesserung der militärischen Mobilität zugesagt, darunter 400 Millionen Dollar für Modernisierungen am internationalen Flughafen Yap.
Äußere Inseln wie das über 500 Kilometer entfernte Woleai blieben jedoch unterversorgt, wie Paskal gegenüber Newsweek feststellte.
Diese Lücke nutzt China für eigene Infrastrukturprojekte. Der chinesische Botschafter in Mikronesien, Wu Wei, betonte Anfang Dezember in einem Meinungsbeitrag für die Zeitung The Kaselehlie Press, dass China bereit sei, die Zusammenarbeit mi Mikronesien "in verschiedenen Bereichen wie Infrastruktur und Klimawandelreaktion weiter auszubauen".
Nach Abschluss der Arbeiten auf Woleai soll Shandong Hengyue auch eine Brücke auf der Hauptinsel Yap Proper bauen.
Sorge wegen möglicher militärischer Nutzung
Westliche Analysten befürchten, dass das wachsende chinesische Engagement im Südpazifik den politischen Einfluss und militärischen Vorteil der USA untergraben könnte. Die Landebahn auf Woleai könnte sowohl zivil als auch militärisch genutzt werden, was die amerikanische Verteidigungsarchitektur im Pazifik berühren würde.
Sadler kritisierte zusammenfassend, dass fortgesetztes Nichtstun jahrelange Bemühungen und Milliarden Dollar an Militärinvestitionen und Planung nutzlos machen würde. Die Folgen beträfen nicht nur Woleai, sondern die gesamte strategische Position der USA in Mikronesien.
Die US-Marine hatte die Landebahn auf der Insel bereits in den 1970er Jahren instandgesetzt, womit Yaps äußeren Inseln über drei Landebahnen verfügten. Aufgrund von Überschwemmungsschäden wurde sie jedoch erneut unbrauchbar. Ob die chinesische Konstruktion diese Probleme lösen kann, bleibt abzuwarten.
URL dieses Artikels: https://www.heise.de/-11122281
Links in diesem Artikel: [1] https://www.google.de/maps/place/Woleai/@7.5658974,146.7929776,4.38z/data=!4m6!3m5!1s0x67aeae008d020d2d:0xfc490dba90c1dc27!8m2!3d7.3738625!4d143.9094523!16zL20vMDJsOXAz [2] https://www.scmp.com/news/china/diplomacy/article/3337115/chinas-rebuilding-micronesian-airport-runway-raises-alarm-us [3] https://www.newsweek.com/satellite-photos-show-china-rebuilding-world-war-ii-airfield-in-pacific-11191117 [4] https://www.telepolis.de/article/USA-vs-China-und-die-zweite-Inselkette-9631931.html?seite=all [5] https://www.doi.gov/oia/compacts-of-free-association [6] https://nationalsecurityjournal.org/china-is-quietly-breaking-americas-pacific-defense-chain/
Wer nur auf Waffen setzt, übersieht: Mehr Rüstung kann paradoxerweise weniger Sicherheit bedeuten – ein Effekt aus dem Kalten Krieg.
"Was in der medial befeuerten Aufrüstungseuphorie gerade von den dauerpräsenten Sicherheitsexperten aus der Wissenschaft vergessen wird, ist ein klassisches Argument aus der Disziplin der Internationalen Beziehungen – nämlich das sogenannte Sicherheitsdilemma. Dieses Dilemma besteht darin, dass individuell rational wirkende Handlungen sich in ein kollektiv irrationales Ergebnis übersetzen können.
Was die eine Seite für vernünftig hält, um ihre Sicherheit zu erhöhen – Waffenbeschaffungen, Bündnisse, Drohgebärden , erhöht das Unsicherheitsgefühl auf der anderen Seite, die wiederum mit Aufrüstung reagiert. Das Ergebnis ist eine Rüstungsspirale. ..."
Daniel Marwecki [1]
Schon 1983 führten wir auf dem Generalstabslehrgang an der Führungsakademie der Bundeswehr Gespräche über dieses Dilemma. Damals hatten wir zu Zeiten des Kalten Krieges einen Bestand von mindestens 50.000 Atomwaffen – von Gefechtsfeldmunition bis hin zu strategischen Atomwaffen. Eine völlig irrationale Zahl, die Ergebnis eines ungebremsten Rüstungswettlaufs war.
Letztlich ein Resultat aus den Bedrohungsanalysen, die zu immer neuen Waffenentwicklungen und Anschaffungen für die Teilstreitkräfte des Heeres, der Luftwaffe und der Marine führten.
Auch ich befand mich damals als Offizier in dieser "Spirale" verfangen. Ohne die Folgen dieser gewaltigen Aufrüstung zu erkennen und zu ermessen, welche Konsequenzen ein Versagen der Abschreckung gehabt hätte.
An dieser Logik der militärischen Verteidigungsplanung und dem damit verbundenen Sicherheitsdilemma hat sich wahrscheinlich bis heute nichts Grundsätzliches geändert.[2]
Die Bundeswehr müsse wieder zur Landesverteidigung befähigt werden. Deshalb seien Ausrüstungsdefizite zu beheben und umfangreiche Beschaffungen notwendig, um Heer, Luftwaffe und Marine in die Lage zu versetzen, die Bundesrepublik Deutschland verteidigen zu können [1]. Diese Überzeugung bildet die Grundlage der neu ausgerichteten Verteidigungspolitik.
Das ursprünglich von der Nato geforderte Zwei-Prozent-Ziel des Bruttoinlandsprodukts wurde von der Bundesrepublik inzwischen erfüllt. Bis 2035 sollen voluminöse fünf Prozent des BIP investiert werden, die der amerikanische Präsident Donald Trump von den Nato-Staaten fordert [2].
Fünf Prozent des BIP wären weit über 200 Milliarden Euro für Deutschland – und das jedes Jahr.[3]
Aufrüstung in Europa: Nato-Staaten im Rüstungswahn?
"Die europäischen Länder der Nato scheinen seit der Wiederwahl Donald Trumps von einem Rüstungswahn ergriffen. Laut Sipri haben die europäischen Nato-Mitglieder in der vergangenen Dekade über 3 Billionen US-Dollar in ihre Rüstung investiert. … Das Ziel müsste aber lauten, effiziente Verteidigungsfähigkeit bei bestehend Mitteleinsatz herzustellen."
Daniel Marwecki [4]
Marwecki plädiert als Vision für ein "(West-)Europa der Neutralität und Nichtaggressivität bei gleichzeitiger Verteidigungsfähigkeit." Es hätte innerhalb der multipolaren Matrix die theoretische Chance, eine stabilisierende Rolle zwischen den Weltmächten USA, Russland und China zu spielen. In der Praxis zeichne sich das aber kaum ab.
Diplomatie muss wieder eine zentrale Rolle bei der Krisen- und Konfliktprävention spielen. Der ehemalige deutsche UN-Botschafter, Martin Kobler plädiert für eine Stärkung der Verteidigungsfähigkeit bei gleichzeitigem, kooperativen "Handausstrecken."
Die sicherheitspolitische Debatte der Demokraten in Deutschland beschränke sich weitgehend auf einen kollektiven Ruf nach Waffen. …
"Wir brauchen beides, Wehrhaftigkeit und Gesprächsfähigkeit. Diplomatie darf kein Schimpfwort sein. … Europa hätte den Weitblick haben müssen, die UN und ihren Generalsekretär in Bewegung zu setzen, um entschieden und unbeirrt diplomatische Wege zu öffnen. Das es das nicht getan hat, bleibt ein bitteres Versäumnis", so der renommierte deutsche UN-Diplomat.[5]
Das Dilemma der Aufrüstung: Mehr Waffen, weniger Sicherheit?
Mit der militärischen Landesverteidigung scheint ein schier unlösbares Dilemma verbunden zu sein[6]:
Einerseits muss der Verfassungsauftrag zur militärischen Landesverteidigung und des Schutzes der eigenen Bevölkerung durch die Bundeswehr erfüllt werden.
Militärische Landesverteidigung ist andererseits aber immer mit dem Risiko des Sterbens hunderttausender Menschen und großflächiger Zerstörung verbunden. Im Falle eines Einsatzes von Atomwaffen sogar mit einem unvorstellbaren Inferno!
Aufrüstung stoppen: Warum Diplomatie jetzt gefragt ist
Aufgabe der internationalen Diplomatie wäre es, eine auf internationale Zusammenarbeit basierende Sicherheitsordnung wiederherzustellen oder neu zu entwickeln, sodass der Verteidigungs- bzw. Kriegsfall eher unwahrscheinlich wird.
Hierbei wird sich das beschriebene Sicherheitsdilemma im Falle einer hochgerüsteten Landesverteidigung entschärfen lassen, wenn in internationaler Abstimmung die noch vor wenigen Jahren gültigen Abrüstungsvorträge wieder eingeführt, aktualisiert und ausgebaut würden.
Zurzeit scheinen wir uns aber von einer vernünftigen friedenspolitischen Regelung immer weiter zu entfernen. Wird eine Rückkehr zu einer friedenspolitischen Vernunft und zu einer größeren Verantwortlichkeit noch möglich sein? Oder wird die Gefahr eines globalen Krieges – ausgehend vom Krieg in der Ukraine – immer weiter eskalieren, bis der Point of no Return überschritten ist?[7]
Nach der Aufrüstung: Rüstungskontrolle und Abrüstung als Ausweg
Deshalb braucht es unbedingt der Wiederbelebung der Rüstungskontrolle und des Bemühens um Abrüstung. Die während des Kalten Krieges einberufene und durchaus erfolgreiche Genfer Abrüstungskonferenz wäre eine Institution, von der Gespräche ausgehen könnten.
"Vorausschauend denkend, vertrauensbildend vielleicht sogar Dialog pflegen und ausbauen – die ganze Toolbox der UNO ausschöpfen, das wäre praktizierte Konfliktprävention. Dialog und gute Dienste anbieten, das ist doch die Kernaufgabe der Außenpolitik."
Martin Kobler [8]
Deutschland hat zusammen mit Namibia 2024 den UN-Zukunftspakt auf den Weg gebracht. Aktuell führt mit Annalena Baerbock eine ehemalige Außenministerin die Präsidentschaft der UN-Generalversammlung. Des Weiteren bewirbt sich Deutschland erneut für einen Sitz im Sicherheitsrat der Vereinten Nationen für die Jahre 2027 bis 2028.
Eigentlich ein Gebot der Stunde für die Bundesrepublik Deutschland, Mittel aus dem ausufernden Rüstungsetat umzuschichten, um die Vereinten Nationen bei der Rettung von Millionen notleidender Menschen in größerem Umfang finanziell zu unterstützen.[9]
Quellen:
[1] Daniel Marwecki, "Die Welt nach dem Westen", Ch.Links Verlag 2025, S. 208
Im Dezember 1975 öffnet in Kalifornien der erste Byte Shop. Ohne diese spätere Computerhandelskette wäre Apple heute vielleicht in Vergessenheit geraten.
Es ist eine der schönsten Anekdoten aus dem Silicon Valley: Wie Steve Wozniak und Steve Jobs auf einem Treffen des Homebrew Computer Clubs ihren Apple I zeigen. Und am nächsten Tag der Byte Shop gleich fünfzig Stück bestellt.
1975 ist das Jahr des Mikrocomputers. Er ist kleiner als die Minicomputer und mit einem Mikroprozessor ausgestattet. Vorreiter ist der legendäre Altair 8800 [1]. Um ihn entstehen Clubs, Hobby-Entwicklungen und kleine Unternehmen. Zum ersten Mal kann jeder nicht nur einen Computer kaufen – jeder kann auch einen Computer bauen oder Zubehör entwickeln und daraus ein Gewerbe machen.
Junge Fachgeschäfte werden dafür in den Siebzigerjahren ein wichtiger Multiplikator. Sie sind ein Treffpunkt für die wachsende Community. Man schwatzt, man tauscht sich aus, man entdeckt neue Bücher und Zeitschriften. Vor allem sind sie der Ort, an dem man die neuen Computer sehen und ausprobieren kann.
Den ersten Laden für Heimcomputer eröffnet Dick Heiser am 15. Juli 1975 in Los Angeles. Die bekannteste Kette wird Computerland mit 800 Filialen. Doch besonders in Erinnerung ist der Byte Shop, der Apple durch den ersten Auftrag auf die Beine hilft.
Ursprünge als Handelsvertreter
Gründer des Byte Shop sind Paul Terrell und Boyd Wilson. Sie starten 1975 in Mountain View eine Handelsvertretung, eine Sales Representative Company, die sie wenig einfallsreich Repco nennen. Sie vermitteln vor allem Messgeräte wie Multimeter entlang der Westküste: Kalifornien, Idaho, Oregon und Washington. Kunden sind Universitäten sowie Unternehmen rund um Luft- und Raumfahrt.
Einer von ihnen stellt Terrell den Altair 8800 vor. Terrell fängt sofort Feuer, auch wegen des günstigen Preises von nur 400 Dollar als Bausatz. Er ruft beim Hersteller an, Ed Roberts von MITS, und stellt sich als möglichen Vertrieb vor. Den kann MITS dringend gebrauchen: Bisher wird der Altair nur gegen Bestellung mit der Post verschickt – und man ist damit sehr im Rückstand.
Terrell und Wilson reisen nach Albuquerque zu MITS (wo sie auf Bill Gates und Paul Allen treffen). Sie präsentieren ihr eigenes Portfolio und schließen mit Roberts einen Vertriebsvertrag für den Altair-Rechner ab. Für die Vermittlung von MITS-Produkten, also dem Altair und Zubehör, erhalten sie fünf Prozent Provision.
Paul Terrell in seinem Byte Shop.
(Bild: Paul Terrell/privat)
Der Byte Shop entsteht
Auf einem Vertreter-Treffen im Sommer 1975 bittet Roberts, nach potenziellen Partnern zu suchen, die ein Ladengeschäft eröffnen würden. Es soll neben dem Vertrieb auch Beratung und Reparatur anbieten: Viele Käufer kommen mit dem Bausatz nicht zurecht. Als sie erfahren, dass Dick Heiser mit seinem bereits bestehendem Geschäft 25 Prozent Provision erhält, fassen Terrell und Wilson den Entschluss, selbst einen Laden zu eröffnen – zumal die Vertreter-Provision noch dazu kommt.
Eine Weile dauert die Suche nach einer geeigneten Fläche. Im Silicon Valley soll es sein, natürlich, die passende Größe und vor allem eine gute Lage haben. Die findet man mit der El Camino Real, einer Straße, die von San Jose nach San Francisco führt, parallel zum Highway. Genauer: 1063 West El Camino Real, Mountain View, Kalifornien. Heute findet sich an der Adresse ein Druck- und Kopierladen.
Das Geschäft eröffnet am 8. Dezember 1975 – Paul Terrells Geburtstag. Er kümmert sich eher um den Laden, aus dem bald viele Läden werden, während Boyd die Handelsvertretung leitet. Der Name Byte Shop ist der Zeitschrift Byte entlehnt. Sie erscheint erstmals im September 1975. Terrell entdeckt sie auf dem Flughafen – und spekuliert darauf, dass die Kunden nun denken würden, sein Laden würde das Magazin herausgeben.
Die Idee, ein Computergeschäft zu eröffnen, haben natürlich noch andere. Der Byte Shop macht das Beste daraus und bietet die Marke als Franchise an. Gegen fünf Prozent Umsatzbeteiligung können Interessenten einen eigenen Byte Shop betreiben. Geschäft Nummer 2 öffnet in Santa Clara, Nummer 3 in Campbell, Nummer 4 in Palo Alto … und so weiter. Für die Byte Shops sind Communitys wie der Homebrew Computer Club [3] Inspiration – und Quelle für neue Kunden. So erwartet Terrell von seinen Shop-Managern, dass sie an den Treffen teilnehmen.
MITS verlangt, dass die belieferten Händler den Altair exklusiv anbieten – also keine anderen Computer verkaufen. Terrell hält die Regel für sinnlos und kümmert sich nicht darum. Zumal er vom Altair-Klon IMSAI 8080 doppelt so viele Rechner verkauft. Auf der ersten Heimcomputer-Messe, der World Altair Computer Convention, zu der MITS Ende März 1976 nach Albuquerque einlädt, setzt ihm der Hersteller die Pistole auf die Brust: Entweder er hält sich an die Exklusiv-Klausel oder er wird nicht mehr beliefert. Terrell lehnt ab und es kommt zum Bruch.
Der erste Auftrag für Apple
Das Archivfoto aus dem Jahr 1978 zeigt Steve Jobs und Steve Wozniak mit einer Apple-I-Platine.
(Bild: dpa/Apple)
So passt es besonders gut, dass Terrell wenige Wochen später auf einem Treffen des Homebrew Computer Club auf den Apple I stößt, an dem Steve “Woz“ Wozniak [4] seit einem Jahr bastelt und den er immer wieder vorführt.
Ursprünglich wollte Woz die Schaltpläne für die Leiterplatte seines selbst gebauten Computers, die Anleitung für das Layout und den Quellcode verschenken. Doch Steve Jobs legt ihm nahe, gleich fertige Leiterplatten zu verkaufen. Sie müssten dann von den Käufern „nur“ noch mit Bauteilen bestückt werden. Der neue Plan: Es sollen 50 Platinen professionell mit Kupfer-Leiterbahnen versehen werden. Das kostet pro Platine 20 Dollar; und weiterverkauft werden sollen sie für das Doppelte.
Der Apple I
Dafür beschließen Wozniak und Jobs am 1. April 1976 (zusammen mit dem „vergessenen“ dritten Gründer Ron Wayne) eine Partnership, die der deutschen GbR ähnelt. Ein einfacher Vertrag. Um die 1000 Dollar für die Platinen zu bekommen, verkauft Jobs seinen VW-Bus und Woz seinen Taschenrechner, einen HP-35.
Terrell gefällt der Computer. Man kann ihn mit einer Tastatur ergänzen und an einen Fernseher anschließen. Er unterhält sich eine Weile mit Steve Jobs und gibt ihm seine Karte. Er solle sich bei Gelegenheit melden. Schon am nächsten Tag steht Jobs – barfuß – im Byte Shop. Terrell will 50 Stück des Apple I kaufen; aber nicht nur eine Platine [5], sondern einen fertigen Computer. Dafür will er 500 Dollar pro Stück zahlen – was heute ungefähr 2500 Euro entspricht.
Der erste Auftrag für Apple ist also gleich ein Volltreffer: 50 mal 500 Dollar machen 25.000 Dollar Umsatz. Das ist einerseits elektrisierend – und andererseits kaum zu erfüllen. Denn die Bauteile für 50 Rechner kosten 15.000 Dollar; und die haben Jobs und Woz nicht. Banken lehnen einen Kredit ab. Einen Teil können sie sich privat leihen; aber vor allem kommt die Rettung durch einen Zahlungsaufschub von 30 Tagen durch einen Elektronik-Lieferanten. Nicht bevor der bei Terrell angerufen hat, um sich die Bestellung bestätigen zu lassen. Das heißt: Die 50 Apple I müssen nach 30 Tagen fertig sein, denn Terrell verspricht Barzahlung bei Lieferung; und das Geld ist nötig, um die Rechnung für die Teile zu begleichen.
In den nächsten Wochen arbeitet das kleine Team um die beiden Steves in Jobs‘ Zuhause. Sein (Adoptiv-)Vater macht Platz in der Garage. Auch der Küchentisch wird Arbeitsplatz. Und selbst das Zimmer von Jobs‘ gerade ausgezogener Schwester Patty wird in Beschlag genommen – in das sie trotzdem zurückkehrt, um mitzuhelfen.
Als Jobs die ersten Platinen zum Byte Shop fährt, offenbart sich ein Missverständnis (das hübsch nachgespielt ist im Spielfilm „Jobs“ mit Ashton Kutcher): Terrell hat einen fertigen Heimcomputer erwartet. Mit Gehäuse, Tastatur, Monitor und Stromversorgung. Nicht nur eine bestückte Leiterplatte. Er nimmt die Geräte dennoch, obwohl es bereits mehr als genug Bausätze auf dem Markt gibt.
Verkauft werden die Boards für 666,66 Dollar – plus Tastatur, Netzteil, vielleicht ein Gehäuse und im Idealfall die Schnittstelle zu einem Kassettenrekorder, um Programme wie den BASIC-Interpreter zu laden und zu speichern.
Nach Terrells Erinnerung hat der Byte Shop nur diese 50 Geräte abgenommen. Sie sind kein Verkaufsschlager, zumal sich Woz bereits einem Nachfolger zuwendet: dem Apple II. Ungefähr 50 gehen an Freunde und Mitglieder des Homebrew Computer Clubs, weitere 100 werden anderen Geschäften angeboten.
Noch mehr Provision als 5 Prozent als Vertreter und 25 Prozent als Handelsmarge würde der Byte Shop erhalten, wenn er seine eigenen Computer anbieten würde. Ab 1977 bietet die Kette den selbstentworfenen Byt-8 an. Er erinnert in seiner Anmutung als großer Kasten mit Front-Panel und seinen Innereien wie Intel 8080 und S-100-Bus an den Altair und den IMSAI. Beworben wird der 500 Dollar teure Bausatz („the electronic erector set“) in Zeitschriften und durch Postsendungen. Ein Bestseller wird er nicht, spricht er doch Bastler an, während 1977 bereits fertige Heimcomputer mit Tastatur und Bildschirm [7] erhältlich sind.
Bereits im selben Jahr, 1977, veräußert Paul Terrell die Kette mit Dutzenden Geschäften – sie ist so schnell gewachsen, dass sie mehr Organisation und Kapital benötigt, als er stemmen kann. Zudem drängen neue Akteure und neue Computer auf den Markt. Das Geschäft mit dem „Personal Computer“ wird immer größer und professioneller; und er nimmt die Gelegenheit wahr, als er ein Angebot bekommt.
Der Exidy Sorcerer von Horst Völz; hier in einer Ausstellung 2013.
(Bild: René Meyer)
Ohnehin ist es spannender, sich neuen Vorhaben zuzuwenden. Gemeinsam mit dem befreundeten Spielautomaten-Hersteller Exidy entwickelt Terrell einen weiteren Heimcomputer: den weniger bekannten Sorcerer. Er wird mit einem Z80 angetrieben; und Terrell lässt all seine Erfahrungen einfließen, was Kunden von einem Computer erwarten. Es gibt eine vernünftige Tastatur und eine relativ hohe Auflösung von 64 × 16 Zeichen, die ihn für Büroarbeiten wie Textverarbeitung qualifizieren.
Mit rund 20.000 insgesamt abgesetzten Geräten ist der Sorcerer kein großer Erfolg, obwohl er weltweit auch in Europa und gar Australien vertrieben wird. Mindestens ein Gerät landete in der DDR: Der Informatiker Horst Völz bringt ein Gerät von einem Westbesuch mit. Es wird zum Entwicklungssystem für seine Programme für den Kleincomputer KC 85 [8]. Vor allem die verbreitete Textverarbeitung TEXOR, die Millionen an (DDR-)Mark umsetzt.
Weitere Projekte von Terrell in der Folgezeit sind die Ladenkette ComputerMania, die Hardware und Software vermietet, und Romox, ein früher digitaler Vertrieb für Konsolen und Heimcomputer Anfang der Achtzigerjahre: Romox-Steckmodule, die für eine Reihe von Systemen angeboten werden, lassen sich an speziellen Stationen wiederholt mit Spielen aufladen.
Auf der Party zum 50. Geburtstag des Byte Shop im Dezember 2025: der Journalist Harry McCracken, Paul Terrell jr. mit Vater, Lee Felsenstein und Jonathan Rotenberg (Boston Computer Society, Applefest 1981).
(Bild: Jane Anderson/privat)
Das große Wiedersehen
Am 7. Dezember 2025 kommt es in San Jose zu einem Geburtstagstreffen: 50 Jahre Byte Shop. Paul Terrell selbst lädt ein. Unter den Gästen sind der Aktivist und Computer-Erfinder Lee Felsenstein. Daniel Kottke, der mit an den Platinen werkelt und später einer der ersten Apple-Angestellten wird. Der dritte Apple-Gründer Ron Wayne. Der Ingenieur Rod Holt, der das Netzteil für den Apple I entwirft. Harry Garland, dessen Firma Cromemco 1976 einen der ersten Heimcomputer Z-1 veröffentlicht. Der Deutsche Armin Hierstetter, der originalgetreue Nachbauten des Apple I samt Handbuch anbietet. Und Steve Wozniak. Von einer der wichtigsten Personen gibt es nur die Erinnerung: Steve Jobs stirbt 2011 [9] und schaut von einer Leinwand in den Saal.
URL dieses Artikels: https://www.heise.de/-11121820
Am Samstag sind Waymo-Taxis im laufenden Verkehr stecken geblieben und haben zu Staus in San Francisco geführt. Grund ist wohl ein Stromausfall gewesen.
Ein Stromausfall in San Francisco zwang die Waymo-Flotte zum Stop.Bild:
Waymo
Wie Mission Local berichtet hat Waymo am Samstag angekündigt, den Betrieb seiner selbstfahrenden Taxis in San Francisco vorübergehend einzustellen. Grund dafür sei der Stromausfall, durch den knapp ein Drittel der Stadt nicht mit Strom versorgt wurde.
Waymos stecken an Ampeln fest
Insbesondere die ausgefallenen Ampeln scheinen der Waymo-Flotte Probleme bereitet zu haben: In Videos und auf Fotos ist zu sehen, wie sich viele Waymo-Fahrzeuge dort stauen. Auch für andere Verkehrsteilnehmer war daher teilweise kein Durchkommen, was zu großflächigen Staus in der ohnehin schon chaotischen Verkehrssituation führte.
Um zu verhindern, dass auch Rettungskräfte von Waymo-Taxis behindert werden, habe Waymo den Betrieb seiner Flotte zunächst eingestellt, wie eine Waymo-Pressesprecherin gegenüber Mission Local am Samstagabend mitteilte. Eine Erklärung für die Probleme bei den selbstfahrenden Autos lieferte der Konzern bisher nicht.
Ausfall von Mobilfunkmasten
Möglich ist, dass die Taxis durch den Ausfall der Stromversorgung keinen oder nur stark eingeschränkten Zugriff auf Verkehrsdaten besaßen. Einige Mobilfunkmasten seien durch den Blackout ausgefallen, was zu eingeschränkter Erreichbarkeit und geringeren Datengeschwindigkeiten geführt habe. Auch der Fernzugriff von Waymo auf betroffene Fahrzeuge war dadurch höchstwahrscheinlich eingeschränkt.
Ein Publisher hat angekündigt, dass sein Spiel auf einer Softwarekarte mit weniger Speicher erscheint. Offiziell gibt es aber nur die Version mit 64 GB.
R-Type Dimensions III erscheint als Cartridge - so viel gibt Inin Games auch nach dem Fauxpas zu.Bild:
Inin Games
Spiele für die Switch kommen entweder auf 64 GB großen Softwarekarten, als Softwareschlüsselkarte ohne Spieldaten oder nur als Download in den Handel. Cartridges mit weniger Speicher sind aktuell nicht verfügbar. Bei der Ankündigung von R-Type Dimensions III kündigte Publisher Inin Games genau solche kleineren Cartridges an – und ruderte kurz darauf zurück.
Nintendo soll kleinere Cartridges angekündigt haben
Zunächst verkündete Inin Games, dass R-Type Dimensions III nicht auf einer normalen Cartridge erscheinen könne. Die Produktionskosten für die Karten mit 64 GB Flash-Speicher seien zu hoch und die Firma müsste den Preis für das Spiel dadurch um mindestens 15 Euro erhöhen. Kurz darauf folgte auf X und dem eigenen Blog ein inzwischen gelöschtes Update.
In diesem hieß es: "Es gibt kein besseres Timing: Vor zwei Tagen hat Nintendo zwei kleinere Cartridge-Größen für die Nintendo Switch 2 angekündigt." Dadurch könne man die Kosten neu kalkulieren und das Spiel auf Cartridge für einen Aufpreis von etwa zehn Euro anbieten. Das Problem: Eine solche Ankündigung seitens Nintendo gab es nicht.
Keine offizielle Bestätigung, aber das Spiel erscheint auf Cartrdige
Es dauerte nicht lange, und Inin Games löschte den Beitrag auf Social Media und veränderte den Blogeintrag. Darin heißt es nur noch, dass R-Type Dimensions III auf einer richtigen Softwarekarte erscheinen und in dieser Form durch die gestiegenen Produktionskosten zehn Euro mehr kosten werde als das Download-Pendant. Auf X stellt der Publisher klar: "Es gab keine offizielle Ankündigung oder Bestätigung seitens Nintendo zu Speichergrößen von Cartridges."
Publisher, denen die Produktionskosten der normalen Softwarekarten für die Switch 2 zu hoch sind, können für einen physischen Release eine sogenannte Softwareschlüsselkarte nutzen. Unter Spielern stehen diese allerdings in der Kritik, da auf diesen keine Spieldaten vorhanden sind. Stattdessen handelt es sich nur um eine digitale Lizenz, um das Spiel aus dem Internet herunterzuladen.
Spieler und Sammler befürchten, dass Spiele, die nur als Softwareschlüsselkarte erscheinen, irgendwann nicht mehr als Download erhältlich sind. Deswegen bevorzugen sie die echten Cartridges, auf denen das Spiel tatsächlich vorhanden ist.
Amazon hat ein Rudergerät von Merach im Angebot, das besonders leise ist und attraktive Trainingsunterstützung per App beinhaltet.
Rudergerät Merach Q1SBild:
amazon.de/merach
Rudern zählt zu den effektivsten Sportarten, da es viele Muskelgruppen gleichzeitig beansprucht und die Fettverbrennung ankurbelt. Schon 20 Minuten können die gleiche Wirkung erzielen wie 60 Minuten Laufen. Mit dem Rudergerät Q1s lässt sich der Trainingseffekt auch in den eigenen vier Wänden erreichen. Es überzeugt mit einem besonders leisen Betrieb und verspricht mit der dazugehörigen App abwechslungsreiche Einheiten für Anfänger und Fortgeschrittene. Bei Amazon ist es für kurze Zeit zum reduzierten Preis erhältlich.
Rudergerät Merach Q1s: leises Training mit 16 Widerstandsstufen
Das Rudergerät Q1s von Merach wird in teilmontiertem Zustand geliefert und ist laut Angaben des Herstellers in rund 20 Minuten einsatzbereit. Mit seiner Länge von 165 Zentimetern und seinem robusten Doppelspurdesign ist es für Nutzer mit bis zu 1,93 Metern Körpergröße geeignet, wobei die Tragkraft bis zu 158 Kilogramm beträgt. Der ergonomische Sitz sowie die rutschfesten Griffe und Pedale versprechen einen stabilen Halt und ein angenehmes Trainingserlebnis.
Durch sein Magnetsystem mit 5,5 Kilogramm schwerem Schwungrad bietet das Rudergerät ein ausgesprochen leises Trainingserlebnis. Bei einer Geräuschentwicklung von maximal 20 Dezibel kann man sich voll verausgaben, ohne Familie oder Nachbarn zu stören. Der Widerstand lässt sich in 16 Stufen auf bis zu 32 Kilogramm anpassen, so dass das Gerät für Einsteiger geeignet ist, aber auch genug Herausforderungen für Fortgeschrittene bereithält. Nach dem Gebrauch lässt sich das Q1s aufrecht an die Wand stellen, um Platz zu sparen.
Smartes Training mit der Merach App
Um das Training zu analysieren und unterhaltsamer zu gestalten, hat Merach eine eigene App entwickelt, die sich per Bluetooth mit dem Rudergerät verbinden lässt. Neben Informationen zu Distanz, Geschwindigkeit oder Kalorienverbrauch stehen über 1.000 Kurse und Spiele zur Verfügung, die Abwechslung ins Trainingsprogramm bringen und dabei helfen, sportliche Ziele zu erreichen. Besonders attraktiv ist der 3D-Kartenmodus Global Go, der mit über 100 Outdoorkarten das Gefühl vermittelt, auf echten Ruderstrecken unterwegs zu sein. Auch Drittanbieter-Apps wie Google Fit oder Apple Health sind mit dem Gerät kompatibel.
Das Rudergerät Merach Q1s zum Aktionspreis
Bei Amazon gibt es das Rudergerät Merach Q1s für kurze Zeit zum Aktionspreis von 189,99 Euro, womit es 70 Euro unter dem Normalpreis von 259,99 Euro liegt. Wer sich im neuen Jahr zu Hause rundum fit halten möchte, sollte bei diesem Deal schnell zugreifen, solange er noch verfügbar ist.
Reklame
MERACH Rudergerät für Zuhause, 16 Widerstandsstufen, Leises Magnetisches Rudergerät, per App Verbindbar, Verbesserte Doppelschienen für Mehr Stabilität, Einfache Montage
Unter demselben Link stehen weitere Modelle mit elektromagnetischem Widerstand oder integriertem Display zur Auswahl, die zum Teil ebenfalls reduziert sind.
Dieser Artikel enthält sogenannte Affiliate-Links. Bei einem Kauf der Produkte über diese Links erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.
Haltungsstufe 5: Besatzdichte bis zu 21 kg pro m2 und eine Auslauffläche von 2,5 bis 4 m2 / Stufe 1: Besatzdichte: bis zu 39 kg pro m2
Die Zucht hat Hühner geschaffen, die in nur fünf Wochen schlachtreif sind – doch ihr Skelett kann nicht mit dem Muskelwachstum mithalten.
Die Tierrechtsorganisation Aninova ließ kürzlich der ARD verstörendes Bildmaterial über die Zustände in norddeutschen Geflügelmastbetrieben zukommen: In den Hallen drängeln sich zwanzig- bis dreißigtausend Masthähnchen auf engstem Raum, teilweise stehen sie auf ihrem eigenen Kot.
Bei vielen Tieren ist das Skelett beschädigt, weshalb sie kaum laufen können. Viele von ihnen können nicht mehr aufstehen. Sie sterben einen langsamen Tod. Dazwischen liegen verendete Tiere.
Qualzuchten mit hoher Sterblichkeitsrate
Auf den vorgelegten Videoaufnahmen liegen viele tote und verletzten Tiere im Stall [1]. Natürlicherweise erreicht ein Huhn sein Endgewicht erst nach mehreren Monaten. Die Hühnerzuchtindustrie hat es geschafft, die Küken innerhalb von fünf Wochen auf das Gewicht eines ausgewachsenes Huhnes – ihr Schlachtgewicht – zu züchten.
Die überzüchteten Tiere haben Schmerzen beim Laufen und können sich kaum fortbewegen, denn ihr Skelett kann nicht so schnell mitwachsen. Es ist komplett überfordert, betont Mahi von Klosterhalfen von der Albert-Schweitzer-Stiftung.
Etwas mehr als 620 Millionen Hähnchen werden pro Jahr in Deutschland geschlachtet. Bei rund 90 Prozent davon handelt es sich um sogenannte Explosionshähnchen – Tiere der branchenüblichen Rassen Ross 308 und Cobb 500. Sie setzen möglichst viel und schnell Fleisch an und bringen dem Landwirt maximalen Profit.
Mit diesen Rassen praktizieren Landwirte Tierquälerei im Stall [2], kritisiert Tierrechtler Jan Peifer von der Tierrechtsgruppe Aninova. Das sei ein grundsätzliches Problem in der Geflügelbranche. Ein großer Teil der betroffenen Tiere müssten eigentlich notgetötet werden. Stattdessen werden sie für den menschlichen Verzehr freigegeben.
Internationale Studien belegen kranke Tiere in Mastställen
Seit Jahren zeigen Studien, dass Hühner und Hähnchen in Volieren und Mastanlagen unter Skelett- und Bewegungsproblemen sowie Herz-Kreislauf- und Hautproblemen leiden und dass sie wärme- und stressanfällig sind. So wies eine Studie des Friedrich-Löffler-Instituts von 2022 Brustbeinschäden bei Legehennen nach.
Auch eine aktuelle Studie chinesischer Wissenschaftler [3] untersuchte Beinerkrankungen bei Masthähnchen, die durch Genetik, Bakterien, Viren sowie Haltungsbedingungen und Fütterung verursacht wurden. Die Albert-Schweitzer-Stiftung verweist auf ihrer Website auf zahlreiche weitere wissenschaftliche Quellen [4].
Wenn die unhaltbare Situation in den Mastställen jahrelang untersucht wurde, warum gelangen dann noch so viele kranke Tiere mit Gelenkschäden in den Lebensmittelkreislauf? [5]
Behörden und Amtstierärzte schauen weg
Es ist vorgeschrieben, dass Tiere steh- und gehfähig sein müssen, frei von Anzeichen einer Infektionskrankheit, frei von Beschwerden, Leiden, Schmerzen und Schäden.
Dem deutschen Tierschutzgesetz [6] (§ 11b) zu Folge ist es verboten, "Wirbeltiere zu züchten […] dass als Folge der Zucht […] die Haltung nur unter Schmerzen oder vermeidbaren Leiden möglich ist oder zu Schäden führt."
Demnach müssen die Tiere frei sein von Leiden, Schmerzen, Beschwerden und von Infektionskrankheiten. Hören sie ein Geräusch, stehen die Tiere normalerweise auf und gehen ein paar Schritte. Können sie das nicht, sind sie nicht steh- und gehfähig.
Theoretisch müssten sie dann als nicht transportfähig und als nicht schlachtfähig eingestuft werden, erklärt eine Amtsveterinärin, die anonym bleiben will, gegenüber den ARD-Journalisten. Streng genommen müssten im Schnitt bis zu 40 Prozent des Bestandes verworfen werden. Auf die Frage, warum sie dann nicht einschreite, antwortet die Frau, sie hänge an ihrem Job. Und als Einzelperson könne sie das große System sowieso nicht ändern [7].
Um etwas zu ändern, müssten die Behörden einschließlich aller Amtstierärzte zusammenarbeiten. Sie tun es aber nicht. Vermutlich, weil jeder Einzelne an seinem Job hängt.
Warum sind qualgezüchtete Masthühner in Deutschland erlaubt?
Mangelhafte Kontrollen, das Wegschauen der Veterinäre – das beschäftigt auch Madeleine Martin [8]. Die Sterblichkeitsraten pro Mastdurchgang seien mit fünf bis sieben Prozent sehr hoch, klagt die hessische Landestierschutzbeauftragte. Und das sind nur die offiziellen Zahlen.
Die Qualzucht, die in den vergangenen 40 Jahren in England und in den USA entstand, führe zu ganz vielen Problemen beim einzelnen Tier. Man wisse schon länger um die Schäden, aber man ändere nichts an der Zucht, erklärt sie resigniert.
Da sich dieses Qualzuchtverbot jedoch ausschließlich auf die Zucht bezieht, und nicht auf die Haltung, ist die Mast von importierten Explosionshähnchen erlaubt. Die Zucht erfolgte ja im Ausland.
Es ist ein Paradoxon, dass in der Praxis hierzulande verbotene Zuchten aus dem Ausland [9] eingeführt werden dürfen, um sie in drangvoller Enge mit in wenigen Wochen auf ihr Schlachtgewicht zu mästen.
Verwaltungsjuristin Barbara Felde von der deutschen juristischen Vereinigung für Tierschutzrecht sieht die Lösung darin, dass der Gesetzgeber im Rahmen einer Rechtsverordnung Abhilfe schafft und auch die Haltung dieser Hähnchenrassen in Deutschland verbietet [10].
Wer ist zuständig? Behörden und Verbände verweigern die Aussage
Auf entsprechende Nachfrage der ARD-Journalisten beim Bundesministerium für Landwirtschaft, ob eine solche Rechtsverordnung geplant sei, hieß es, man sei nicht zuständig. Der Vollzug des Tierschutzrechts obliege dem nach Landesrecht zuständigen Behörden der Länder.
In einem System, an dem alle Beteiligten (Züchter, Mäster, Konzerne) mitverdienen, geht Wirtschaftlichkeit immer über Tierwohl.
Neue Wege in der Hühnerhaltung: Dänemark und Niederlande gehen voran
In den Niederlanden starteten Tierrechtler vor zehn Jahren eine Videokampagne, um gegen die schlechten Bedingungen in der Hähnchenzucht vorzugehen. Im Ergebnis verabschiedete sich der Handel vom Verkauf der sogenannten Plofkip – den schnell wachsenden Brathähnchen.
Dänemark nahm nicht nur gequälte Masthähnchen aus dem Sortiment, die Regierung will sich auch für einVerbot der Zucht schnell wachsender Rassen auf EU-Ebene [15] einsetzen. Immerhin kündigten auch in Deutschland einige große Supermarktketten an, ab 2030 auf "Explosionshähnchen" zu verzichten.
Beim Kauf von Geflügel aus dem Supermarkt auf Haltungsformen achten!
Geflügel-, vorrangig Hühnerfleisch, wird von vielen Menschen als kalorienärmere, leichtere Alternative [16] geschätzt. Das zeigt der hierzulande gestiegene Pro-Kopf-Verbrauch von Geflügelfleisch [17]. So lag der Pro-Kopf-Verbrauch 2024 bei durchschnittlich 13,6 Kilogramm pro Person – ein Anstieg von etwa vier Prozent gegenüber dem Vorjahr.
Bei Fleischprodukten aus dem Supermarkt ist die Haltungsform [18]gekennzeichnet, wobei die Ziffern 1 bis 5 für wachsende Anforderungen an die Bedingungen der Tierhaltung stehen:
Stufe 1: (Mindeststandard) Mehrere tausend Masthühner stehen in großen klimatisierten Hallen auf eingestreutem Boden. Besatzdichte: bis zu 39 kg pro Quadratmeter. Das heißt, etwa 16 bis 23 Tiere stehen auf einem Quadratmeter. Schlachtung nach 30 bis 40 Tagen.
Stufe 2: Besatzdichte bis zu 35 kg pro Quadratmeter. Zusätzliches Beschäftigungsmaterial wie Picksteine oder Stroh.
Stufe 3: Besatzdichte bis zu 25 kg, oder maximal 29 kg pro Quadratmeter bei einem Stall mit Kaltscharraum (Wintergarten) mit zusätzlichem Beschäftigungsmaterial und ständigen Zugang zum Außenklimabereich, z. B. Wintergarten. Das Futter muss gentechnikfrei sein.
Stufe 4: Besatzdichte bis zu 21 kg pro Quadratmeter. In mindestens einem Drittel ihrer Lebenszeit müssen die Hühner Zugang zu einem bewachsenen, strukturierten Auslauf haben. Auf mindestens einem Drittel der Stallfläche Stroh, Heu, Sand oder Torf.
Stufe 5: Bio- und Freilandhaltung: Kriterien wie in Stufe 4. Außerdem muss ein Tier bei festen Ställen mindestens vier Quadratmeter, bei Mobilställen 2,5 Quadratmeter Auslauffläche haben. Wann immer es die Witterung zulässt (mindestens ein Drittel ihrer Lebenszeit) haben die Tiere Zugang zu einem bewachsenen, strukturierten Auslauf.
Bio-Hühner leben länger und besser
Bio-Hühner leben etwa 80 Tage. Sie haben fast doppelt so viel Platz im Stall [19] wie in konventioneller Haltung (siehe Stufe 1). Bio-Hühner haben Zugang zu Auslauf und erhalten Bio-Futter, was die Mastdauer verlängert.
Zudem setzen Anbauverbände wie Bioland, Naturland oder Demeter auf extensivere Mastformen: Durch langsameres Wachstum werden Krankheiten und gesundheitliche Probleme reduziert [20], die oft bei schnell wachsenden Linien in der konventionellen Mast auftreten. Die Hühner stammen aus Öko-Elterntierhaltung, haben ein natürliches Sättigungsgefühl, sind aktiver und bewegen sich besser.
Zwar sind auch langsamer wachsende Hybriden anfällig für Krankheiten (Entzündungen, Läsionen, verschmutztes Gefieder), wie eine Untersuchung von 2009 [21]zeigt. Die Alternative wären wenig krankheitsanfällige, robuste Rassehühner. Doch die sind wegen geringer täglicher Zunahmen nicht für die Stallmast geeignet, umso mehr jedoch für die Haltung im eigenen Garten zwecks Selbstversorgung [22].
Öko-Hühnerzüchter arbeiten allerdings an der Zucht eines Zweinutzungshuhnes [23], dass sich im Gegensatz zu Hybriden für Eier und Mast eignet.
Auslauf, längere Mastdauer, Öko-Futter – das hat seinen Preis!
Wer Öko-Geflügelfleisch kauft, muss tiefer in die Tasche greifen. Doch wem daran gelegen ist, dass sein Geflügel zum Festtag ein halbwegs gutes Leben hatte, greift zu einem Huhn vom Biohof.
Am besten kauft man es direkt beim Bauern, falls man in der Nähe wohnt. Oft bieten Bio-Betriebe beides an: Ab-Hof-Verkauf und online-Shop. So wie der Bauckhof [24], der auf seiner Website [25] einen Eindruck von der Haltung seiner Hühner vermittelt, Bio-Hof Müller [26] in Thüringen oder der Geflügelhof Roth [27] in Witzenhausen/Hessen.
Mit artgerechter Haltung, hochwertigem Futter und naturnaher Aufzucht wirbt auch die Internetplattform Kaufnekuh.de [28]. Wer sein Hühnerpaket hier bestellt, kann die Lieferkette zurückverfolgen bis hin zum Mastbetrieb.
URL dieses Artikels: https://www.heise.de/-11120770
Deutschlands Rentensystem wird schrittweise zerstört. Chile hat sich dagegen von einer rein kapitalgedeckten Rente verabschiedet. Warum?
Nach Beginn des Kalten Krieges förderte die US-Regierung eine Partnerschaft zwischen der University of Chicago und der Pontificia Universidad Católica de Chile in Santiago. Indem sie Studenten mit den marktradikalen Weltanschauungen der Fakultät von Chicago – vertreten vor allem von Milton Friedman – vertraut machte [1], hoffte Washington, Chile vom Kommunismus fernhalten zu können.
Doch der Plan ging nicht auf. Nach dem Wahlsieg des sozialistischen orientierten Salvador Allende, der 1971 zum Präsidenten Chiles gewählt wurde, musste erst General Augusto Pinochet am 11. September 1973 putschen [2] und eine Militärdiktatur errichten, um das Land auf den Pfad der antikommunistischen Tugend zurückzuführen.
Pinochet und die Stunde der Chicago Boys
Und jetzt schlug auch die Stunde der Chicago Boys. Ihr führender Vertreter, Sergio De Castro, wurde 1973 zum Berater des Wirtschaftsministers Rodolfo González ernannt. De Castro legte seinem Chef einen Plan vor, der Handelsliberalisierung und Deregulierung in Reinform bedeutete.
Also liberalisierten die Chicago Boys Preise und Zinssätze, reprivatisierten Unternehmen und deregulierten das Bankensystem. Sie privatisierten außerdem Schulen, Krankenhäuser, Kranken- und Rentenversicherung sowie soziale Dienste.
Aber sie konnten die Wirtschaft zunächst nicht armutssicher [3] aufstellen, weil sie vor allem auf Rohstoffexporte setzten. Der Anteil der chilenischen Industrieproduktion am Sozialprodukt fiel zwischen 1974 und 1982 von 29,5 Prozent auf knapp 19 Prozent, ein Drittel der chilenischen Arbeiter war ohne Job oder ging einer tageweise vom Staat verordneten Tätigkeit nach.
Anhaltende, heftige Arbeitslosigkeit und Inflation
Auch andere Probleme erwiesen sich als hartnäckig. So veranlasste insbesondere die anhaltende jährliche Inflation von 350 Prozent die Militärjunta 1975 dazu – entsprechend Friedmans Rat – eine monetäre Schocktherapie durchzusetzen [4], die die Preise wieder stabilisieren sollte. Doch daraufhin explodierte die Arbeitslosigkeit und fror zehn Jahre auf hohem Niveau ein.
In der Folge gipfelten die Proteste gegen die Junta erstmals 1983. Bei den Parlamentswahlen 1988 stimmten 56 Prozent der Chilenen für ein Ende der Pinochet-Diktatur. 1987 lag die Armutsrate [5] der Menschen mit Einkommen von unter drei US-Dollar am Tag (Kaufkraft von 2021) immer noch bei 21,7 Prozent.
2019 wurden bei schweren Demonstrationen schließlich ein Ende von Unternehmensmissbrauch, privatwirtschaftlich organisierter Schulbildung und höhere Renten gefordert [6]. All diese Probleme, führten die Demonstranten auf den Neoliberalismus und die Chicago Boys zurück, was an ihren Slogans und Graffiti klar abzulesen war.
Das Jahr der Wende
Die Ursache für die Unruhen war schlichtweg, dass chilenische Familien in ständiger Angst leben mussten, in die Armut zu fallen. Da die Menschen keinen Anspruch auf hinreichende Sozialleistungen hatten, konnte schon das kleinste Unglück – Krankheit, Unfall oder anderes – ihren hart erarbeiteten Wohlstand zunichte machen.
Und für einen ruhigen Lebensabend lieferte das 1981 unter Pinochet und den Chicago Boys eingeführte Kapitaldeckungsverfahren deutlich zu niedrige Renten. Ein wesentlicher Kritikpunkt der Demonstranten waren zudem die zu hohen Gebühren des Systems. Ein Kommentar bei Bloomberg bezeichnete das gescheiterte chilenische Rentensystem sogar als "Schandmal des Neoliberalismus [7]".
Die Demonstranten von 2019 erwiesen sich als so hartnäckig, dass die chilenische Regierung beschloss, den Sozialvertrag des Landes grundlegend zu ändern. Zwar scheiterten [8] Versuche, eine neue Verfassung für das Andenland zu beschließen, doch einzelne bedeutende sozialpolitische Reformen wurden unter der Regierung von Gabriel Boric schließlich erfolgreich gestemmt.
Rentenreform mit solidarischen Elementen
Die wichtigste ist sicherlich die Rentenreform [9]. Nach jahrelangem Streit billigte das Parlament Ende Januar ein neues Gesetz. Die privat organisierte Altersversorgung wird nicht abgeschafft, aber neu geordnet und um solidarische Elemente bereichert: Demnach steigt der Arbeitgeberbeitrag [10] zu den Rentenkonten der Versicherten nun stufenweise auf 8,5 Prozent.
Gleichzeitig wird die Grundrente [11] (Pensión Garantizada Universal, PGU) gestärkt, die aus dem Staatshaushalt finanziert wird.
Doch der Schaden, den die Chicago Boys angerichtet haben, reicht weit über Chile hinaus. Mit tatkräftiger Unterstützung von IWF und Weltbank haben weltweit über 30 Länder das Modell mehr oder minder originalgetreu kopiert [12]. In Lateinamerika [13] waren dies Argentinien, Bolivien, El Salvador, Kolumbien, Mexiko, Peru und Uruguay.
Chile, der Kosovo und Covid-21
Die Auswirkungen erstrecken sich bis in die Zeit von Covid-21: Der Kosovo, der nach Ende des Jugoslawienkrieges 2002 wohl die genaueste Kopie des chilenischen Systems adaptierte musste – genau wie Chile – den Sparern zugestehen, bis zu zehn Prozent ihrer Ersparnisse aus den Pensionskassen abzuheben.
Explodierende Arbeitslosigkeit und unzureichende soziale Sicherung hatten beide Regierungen zu diesem radikalen Schritt genötigt. Und in beiden Ländern wollten die Menschen nach dem Start der Auszahlungen mehr von ihrem Ersparten zurück.
Derzeit wird im Kosovo ein Gesetz debattiert, das sogar die Auszahlung von 30 Prozent der verbleibenden Mittel erlauben würde. Aber anders als in der ersten Runde gibt es bislang keine Pläne für Teilrückzahlungen. Diese Finanzspritze ist vielleicht gut für die Wirtschaft sein, wird den künftigen Rentnern aber wohl auf die Füße fallen.
URL dieses Artikels: https://www.heise.de/-11121546
Über Jahre wurde TFA legal in öffentlichen Gewässern verklappt. Jetzt wird gerätselt, wie man den unerwünschten Stoff wieder aus der Umwelt entfernen kann.
Eine langfristige Folge der Industrialisierung in Deutschland ist die zunehmende Belastung mit Abfallstoffen, die nicht nur nicht zu beseitigen sind, sondern sich sogar immer stärker in der Umwelt und damit in Trinkwasser [1] und Lebensmittel anreichern und weder herausgefiltert werden können, noch im Laufe der Zeit abgebaut werden.
Wer wirtschaftliches Wachstum will, muss diese Umwelt- und Gesundheitsbelastung akzeptieren, tönt es aus der Politik – sonst wäre der deutsche Wohlstand gefährdet. Nur was nützt Wohlstand ohne Gesundheit?
Was ist TFA?
Trifluoressigsäure (TFA) ist eine sehr stabile, wasserlösliche organische Säure, die als Endprodukt vieler fluorierter Chemikalien wie Pfas, Pestizide, Medikamente und Kühlmittel entsteht und sich weltweit in der Umwelt anreichert, im Wasser und Boden mobil ist und als "Ewigkeitschemikalie" gilt; sie wird als reproduktionstoxisch eingestuft, auch wenn die langfristigen Gesundheitsrisiken noch erforscht werden. Die Salze der Säure heißen Trifluoracetate.
Die Bundesstelle für Chemikalien (BfC) hat mit dem Bundesinstitut für Risikobewertung (BfR [2]) und weiteren Behörden TFA jüngst als fortpflanzungsgefährdend eingestuft. Aufgrund ihrer Verbreitung ist TFA mittlerweile in allen Umweltbereichen vom Grundwasser über die Gewässer und Meere bis zu den Pflanzen nachweisbar.
Wer sind BfC und BfR?
Die Bundesstelle für Chemikalien (BfC [3]) ist in Deutschland die zuständige Behörde für die Umsetzung europäischer Chemikalienverordnungen wie REACH [4], CLP [5] und die Biozid-Verordnung [6] und wird von derBundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA [7]) in Dortmund wahrgenommen, die als Fachbereich 5 diese Aufgaben übernimmt, um Mensch, Tier und Umwelt vor gefährlichen Stoffen zu schützen.
Das Bundesinstitut für Risikobewertung (BfR [8]) versteht sich als unabhängige wissenschaftliche Einrichtung, die sich hauptsächlich dem gesundheitlichen Verbraucherschutz widmet. Das BfR [9] betreibt eigene Forschung und berät die Bundesregierung zu Fragen der Lebens- und Futtermittel-, Chemikalien- und Produktsicherheit.
Bedrohung der Lebensgrundlagen durch TFA
Vor kurzem hat die Arbeitsgemeinschaft der Wasserwerke Bodensee-Rhein (AWBR [10]) Alarm geschlagen [11]. Die Mitgliedswerke der Arbeitsgemeinschaft versorgen im Einzugsgebiet der Alpenseen, des Bodensees, der Aare und des Rheins [12] täglich mehr als 10 Millionen Menschen mit Trinkwasser. Durch TFA sei das Trinkwasser zunehmend bedroht [13]. Die Belastung am Hochrhein etwa habe sich beispielsweise in den vergangenen Jahren verdoppelt [14].
Das Trinkwasser könnte irreversibel geschädigt werden, denn TFA kann mit bisherigen Methoden nicht aus dem Wasser herausgefiltert werden. Rund die Hälfte der TFA Belastungen, schätzt der Wasserwerke-Verband, dürfte aus Industrie, Gewerbe oder Haushalten stammen. Die andere Hälfte aus der Landwirtschaft.
Das Einleiten von TFA in die Umwelt wurde lange genehmigt
Das die Ewigkeits-Chemikalie TFA ein Problem für die Umwelt [15] darstellt, ist durchaus bekannt, dennoch war die Entsorgung von TFA in den Vorfluter aufgrund tradierter wasserrechtlicher Genehmigungen lange Zeit erlaubt. So durfte eine deutsche Tochter der belgischen Solvay behandeltes TFA legal in Neckar einleiten.
In Bad Wimpfen (Kreis Heilbronn) leitet das Chemiewerk von Solvay seit vielen Jahren die Ewigkeits-Chemikalie TFA in den Neckar ein und das behördlich genehmigt. Am Rande des Neckars produziert das Unternehmen Lötflussmittel für Klimaanlagen und Fluorprodukte für die Elektro- und Autoindustrie. Dabei entsteht als Abfallprodukt auch TFA. Die Ewigkeits-Chemikalie steckt jedoch auch generell in Pflanzenschutz- oder Kältemitteln und gelangt so ebenfalls in die Umwelt.
Behördlich genehmigt
In Bad Wimpfen im Kreis Heilbronn leitet das Chemiewerk von Solvay seit vielen Jahren die Ewigkeits-Chemikalie TFA in den Neckar ein und das behördlich genehmigt. Am Rande des Neckars produziert das Unternehmen Lötflussmittel für Klimaanlagen und Fluorprodukte für die Elektro- und Autoindustrie. Dabei entsteht als Abfallprodukt auch TFA. Die Ewigkeits-Chemikalie steckt jedoch auch generell in Pflanzenschutz- oder Kältemitteln und gelangt so ebenfalls in die Umwelt.
Der SWR meldete [16] im Zusammenhang mit einem Bericht über das Solvay-Werk in Bad Wimpfen am 28. Juni: "Laut Regierungspräsidium Stuttgart hat die Solvay GmbH 2016 eine wasserrechtliche Erlaubnis zur Einleitung erhalten. Dabei kommen verschiedene Gesetze zur Anwendung, etwa die Abwasserverordnung für die Chemische Industrie. Solvay darf damit also behördlich genehmigt aktuell ein Kilo TFA pro Stunde in den Neckar laufen lassen. Auf ein Jahr gerechnet sind das allerdings mehrere Tonnen.
Das Regierungspräsidium weist darauf hin, dass durch technische und organisatorische Maßnahmen die eingeleiteten TFA-Mengen von Solvay seit 2016 um circa 90 Prozent reduziert werden konnten. Heißt im Umkehrschluss: Solvay hat in der Vergangenheit viel größere Mengen in den Neckar eingeleitet."
"Grundsätzlich ist die Freisetzung einer gar nicht abbaubaren Substanz sehr problematisch; salopp gesagt, ist es falsch und dumm, denn die Substanz sammelt sich dann natürlich in der Umwelt an, kann nicht mehr entfernt werden und führt früher oder später zu toxischen Wirkungen," wird Prof. Martin Scheringer, der an der ETH Zürich lehrt, vom SWR zitiert [17].
URL dieses Artikels: https://www.heise.de/-11113332