(Bild: Casimiro PT/Shutterstock.com)
Bei Sotheby's kommen teuerste Kunst- und Luxusgegenstände unter den Hammer. Jetzt gerieten personenbezogene Daten in die Hände von Kriminellen.
Sotheby's ist bekannt für die Versteigerung hochkarätiger Kunst- und Luxusgegenstände – 2024 wurden insgesamt sechs Milliarden Euro bei Auktionen des Hauses ausgegeben. Nun machte es einen Cyberangriff publik, der sich bereits im Juli diesen Jahres ereignete. Dabei wurden laut dem Auktionshaus Namen, Sozialversicherungsnummern und Bankverbindungen entwendet. Einem Medienbericht zufolge handelt es sich dabei um Daten von Beschäftigten von Sotheby's.
Den Vorfall machte das Auktionshaus jetzt in einer Mitteilung an Maines Generalstaatsanwalt publik [1], was die örtlichen Gesetze in solchen Fällen vorsehen. Demnach sind zwei Einwohner des US-Bundesstaates Maine sowie, wörtlich, "rund zwei" Einwohner des Bundesstaates Rhode Island. Die genaue Anzahl von Betroffenen dürfte zu diesem Zeitpunkt noch unklar sein. Dem Tech-Portal Bleepingcomputer bestätigte Sotheby's [2], dass es sich dabei ausschließlich um Beschäftigte des Unternehmens handelt (Stand: 18. Oktober, 17:55 Uhr).
Passiert ist der Cyberangriff demnach am 24. Juli. Entdeckt wurde er jedoch erst am 24. September. Daraufhin habe Sotheby's die betroffenen Daten ausführlich untersucht, um zu klären, welche Daten genau von den Kriminellen erbeutet wurden und auf welche Personen sich die Daten beziehen. Sotheby's bietet den Personen, deren Kreditkarteninformationen erbeutet wurden an, die Kosten für 12-monatiges Monitoring ihrer Kredit- und Identitätsdaten bei einer Wirtschaftsauskunftei zu übernehmen. Die Akteure hinter dem Angriff sind zum jetzigen Zeitpunkt noch unbekannt.
Auch beim Auktionshaus Christie's wurden vor Kurzem Daten [3] durch die Ransomware-Gruppe RansomHub abgegriffen. Die Kriminellen wollten Christie's zu einer Zahlung bewegen, das Auktionshaus weigerte sich jedoch. RansomHub informierte später auf einer eigenen Website, dass die Daten bei einer Auktion von einem anonymen Käufer für eine nicht genannte Summe ersteigert worden seien.
URL dieses Artikels:
https://www.heise.de/-10778385
Links in diesem Artikel:
[1] https://www.maine.gov/agviewer/content/ag/985235c7-cb95-4be2-8792-a1252b4f8318/2e46843d-f16d-489d-905a-efee2175e06b.html
[2] https://www.bleepingcomputer.com/news/security/auction-giant-sothebys-says-data-breach-exposed-financial-information/
[3] https://www.heise.de/news/Christie-s-Cyberkriminelle-drohen-mit-Veroeffentlichung-von-erbeuteten-Daten-9733972.html
[4] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[5] mailto:nen@heise.de
Copyright © 2025 Heise Medien
Mosaik von Justinian I.
Nicht Dekadenz oder schwache Kaiser besiegelten das Schicksal Roms. Auch nicht die Barbaren an den Grenzen. Vom Ende eines Imperiums.
Es ist kompliziert. Als Odoaker im Jahre 476 den weströmischen Kaiser Romulus August(ul)us absetzte und ins Exil nach Kampanien in die Nähe von Neapel schickte, endete das weströmische Reich.
So sah es jedenfalls Flavius Marcellinus (Marcellinus comes), ein oströmischer Geschichtsschreiber um 520 in Konstantinopel: "Das westliche Reich des römischen Volkes […] ging mit diesem Augustulus zugrunde".
In Dalmatien an der Adriaküste lebte aber noch der Vorgänger des Romulus namens Julius Nepos, der bis 480 als römischer Kaiser agierte und von Ostrom auch als solcher anerkannt wurde. Julis Nepos – seit 474 Kaiser – war bereits im Folgejahr vom Heermeister Orestes vertrieben worden, der seinen Sohn Romulus zum Kaiser erhob.
Orestes und sein Bruder Paulus hatten die Macht inne, bis ihnen Odoaker 476 den Garaus machte. Von da an regierte Odoaker als König von Italien.
Odoaker hatte einen typisch völkerwanderungszeitlichen Hintergrund – er entstammte einem hunnisch-skirisch-gotischem Milieu. Seine Zeit endete 493, als ihn der Gote Theoderich beim Festmahl in zwei Teile spaltete und sich selbst zum König von Italien machte.
Romulus August(lu)us erlebte und überlebte das alles mit ca. 16 Jahren. Wie lange er in der Verbannung noch aushielt, ist unbekannt.
Kurzlebige und unfähige Kaiser, machtgierige Barbaren, eine verarmende Bevölkerung, der Zusammenbruch der römischen Verwaltung und damit der Steuereinnahmen, das römische Militär wurde der Feinde erst an den Grenzen und dann im Lande nicht mehr Herr – waren das die Gründe für den Untergang Roms?
Es gibt noch eine andere Erklärung. In ihr spielen der Klimawandel und Seuchen, Vulkanausbrüche und Pestbakterien, das Ende des römischen Klimaoptimums und die spätantike kleine Eiszeit eine Rolle.
Es begann in der Mitte des 3. Jahrhunderts: Am 21. April 248 feierte die urbs Roma wahrhaft imperial ihr tausendjähriges Bestehen. Alles schien in bester Ordnung.
Der Kaiser Marcus Julius Philippus, kurz Philippus Arabs genannt, ein Syrer, feierte militärische Siege an der Nordgrenze, brachte Verwaltungsreformen in Gang und ließ umfangreiche Baumaßnahmen und Straßensanierungen vornehmen.
Doch im Folgejahr fiel er im Kampf gegen einen Usurpator in einer Schlacht bei Verona. Es kam noch schlimmer. Eine furchtbare Pandemie zog von Nordafrika ausgehend über das Imperium und ließ es für Jahrzehnte (ca. 249 bis 262/70) nicht aus ihren todbringenden Klauen.
Die Krankheit wird cyprianische Pest [1] genannt nach ihrem eindrucksvollsten Schilderer, Bischof Cyprian von Karthago. Weder die Pocken noch die Pest passen zu den Krankheitssymptomen. Vielleicht war es ein hämorrhagisches Fieber wie heute Ebula, Marburg oder Dengue.
Die tieferen Ursachen für den verheerenden Ausbruch werden in globalen Klimaschwankungen gesucht, die den Monsunzyklus beeinflussten.
Für die Bewohner des römischen Reichs schienen für zwei Jahrzehnte Anarchie und Chaos die Macht übernommen zu haben, an allen Grenzen brannte es lichterloh: die Goten überschritten im Jahre 250 die Donau und vernichten im Folgejahr Kaiser Decius mit seiner Armee.
Die Perser, die im Osten die Parther abgelöst hatten, überrannten unter Shapur I. die Euphratfront, plünderten von Kleinasien bis Syrien und nahmen Kaiser Valerian gefangen. Über den Rhein fielen Alemannen und Franken in Gallien ein.
In Nordafrika und Ägypten herrschten Unruhen. Das Imperium war geschwächt durch die Pandemie wehrlos. Die Soldaten starben wie die Fliegen an der Seuche und die, die nicht starben, konnten nicht oder nur in schlechtem Geld bezahlt werden. Denn eine Währungs- und Finanzkrise ruinierte die Ökonomie des Reiches. Die Endzeit schien angebrochen.
Doch der Untergang blieb aus. Die Krise wurde überwunden, die Ära der Soldatenkaiser aus den Donauprovinzen und damit der militärischen Autokratie brach an und rettete Rom – vorerst. Nach der Mitte des 3. Jahrhunderts begann der Aufstieg des Christentums. Die alten Kulte hatten im Kampf mit der Pest versagt.
Das Reich verband sich mit der neuen monotheistischen Religion. Die Stabilisierung hielt fast 150 Jahre. Mit Konstantinopel wurde eine zweite Hauptstadt errichtet, die strategisch sehr günstig lag und fast uneinnehmbar war.
Das Klima wurde zwar wechselhafter, blieb jedoch relativ warm und günstig. Es kam zu keinen größeren Vulkanausbrüchen. Der Handel rund um das Mittelmeer florierte: Öl, Wein, Oliven, Getreide, Textilien, Pferde, Fischsoße, Sklaven, Tiere, Lebensmittel wurden gehandelt. Aus Indien kamen Edelsteine, aus Nubien Elefanten, aus der Levante Obst, Pistazien, Zwetschgen und Purpurstoffe, aus Ägypten Papyrus, Gewürze und Getreide, aus den Donauländern Eisen und Holz.
Die Armee hatte eine Stärke von etwa 500.000 Mann, darunter 70.000 Spezialisten. Waffenfabriken verteilt auf drei Kontinente versorgten das Heer von Britannien bis an den Euphrat. Gegen Ende des 4. Jahrhunderts schien Roms Militärmacht unüberwindlich. Doch nur zwei, drei Generationen später gab es die römische Kriegsmaschine im Westen nicht mehr.
Um 400 tauchten neue, schwerwiegende Probleme auf. Sie kamen aus dem eurasischen Steppengürtel, der sich vom Osten der Mongolei bis nach Ungarns Tiefebene hinzog, und übten wachsenden Druck auf die Nordgrenze besonders an der Donau aus.
Die Steppennomaden, die als Skythen schon den Griechen, als Awaren und Seldschuken den Byzantinern, als Ungarn dem Reich der Ottonen, als Kumanen / Polowzer der Kiewer Rus und als Mongolen Mittel- und Osteuropa schwer zu schaffen machten, waren im 4./5. Jahrhundert die Hunnen.
Sie waren bewaffnete Klimaflüchtlinge zu Pferde (Kyle Harper), denn die Steppen litten an einer andauernden Trockenphase. Unter ihren siegreichen Bannern versammelten sich iranische Alanen und Sarmaten, germanische Gepiden, Goten, Heruler, Rugier und Sueben sowie alles, was sie noch so auf ihrem Weg von der Wolga (um 370) bis zur römischen Donaugrenze aufsammelten.
Als berittene Bogenschützen, abgehärtet durch das harte Leben in der Steppe, trainiert für den Kampf zu Pferde und taktisch geschult in den Kämpfen mit den Sesshaften von China bis ans Schwarze Meer konnte ihnen niemand standhalten.
Die Goten, die ein Jahrhundert nördlich der Donau dominiert, die Römer im August 378 bei Adrianopel vernichtend geschlagen und 410 Rom erobert hatten, flohen panisch vor ihnen oder unterwarfen sich wie die anderen bereits genannten Völker dieses Raumes.
Herausragende Heermeister, teils römischer teils "barbarischer" Herkunft, von Stilicho über Ricimer und Aëtius bis Aspar, versuchten unter Aufbietung aller Kräfte die Hunnen von den beiden Reichsteilen fernzuhalten.
Als nach Attilas Tod (453) diese Gefahr vorüber war, gab es im Westreich keine ernstzunehmende römische Armee mehr; es wurde wie eingangs geschildert erst von Odoaker (476) dann von Theoderich (493) erobert.
Während Westrom unterging, bestand Ostrom bis zur osmanisch-türkischen Eroberung 1453 fort. Heute wird es meist Byzantinisches Reich genannt. Es überlebte seinen westlichen Bruder um fast 1.000 Jahre und prägte Geschichte, Kultur und Religion Ost- (Kiewer und Moskauer Reich) und Südosteuropas (Balkan) nachhaltig.
Byzanz blieb lange eine Großmacht und ein Konkurrent des im Jahre 800 mit Karl dem Großen wiedererstandenen (west)römischen Reiches in der Frage, wer der wahre Herrscher der Christenheit sei. Für Karolinger, Ottonen, Salier und Staufer war dieses Zwei-Kaiser-Problem noch von großer Bedeutung, dann verlor es wegen des Machtverlustes von Byzanz an Brisanz.
Araber und Bulgaren (seit dem 7. Jh.), die türkischen Seldschuken und Osmanen (seit dem 11. Jh.), die Normannen (11./12. Jh.) und die Serben (14. Jh.) beschnitten das oströmische Territorium aus allen Richtungen kommend immer mehr. Zuletzt war es auf das Stadtgebiet von Konstantinopel (15. Jh.) begrenzt.
Das römische Westreich ging unter. Das östliche hielt nicht nur stand, sondern erlebte unter Justinian (527 – 565) eine fünfzehnjährige sensationelle Erholungsphase: Frieden mit Persien, Rückeroberung von Teilen Italiens, Spaniens und Nordafrikas, Kodifikation des römischen Rechts, Reform der Finanzen und kaiserlich geförderter Bauboom (z. B. Hagia Sophia).
Das Römische Reich bei Justinians Tod 565
(Bild: Neuceu/Commons [2]/CC-2.5 [3] )In Theodora fand er eine Gemahlin, die ihresgleichen suchte. Gemeinsam überstanden sie 532 den Nika-Aufstand [4] in der Hauptstadt. Dann kam Anfang der 540er die Pest, das Bakterium Yersinia pestis [5], aus dem Osten ins Oströmische Reich. Nur noch einmal von 1346 an wütete der Schwarze Tod so verheerend in Europa.
Im Byzanz folgten mehr als zwanzig düstere Jahre. Düster auch deshalb, weil 536 ein Jahr ohne Sonne anbrach. Heftige Vulkanausbrüche mit weltweiten Folgen verdunkelten den Himmel mit Staub und Asche. Die Temperaturen fielen im Sommer um bis zu fünf Grad. Auf der Nordhalbkugel ist es seitdem nie wieder so kalt geworden. Die Gletscher wuchsen. Die kleine Eiszeit begann und hielt bis ins ausgehende 7. Jahrhundert an. Das antike Römerreich war dahin.
Literatur:
Kyle Harper, Fatum. Das Klima und der Untergang des Römischen Reiches, 2020 (amerik. Original 2017).
Mischa Meier, Die Hunnen. Geschichte der geheimnisvollen Reiterkrieger, 2025.
URL dieses Artikels:https://www.heise.de/-10777442
Links in diesem Artikel:[1] https://de.wikipedia.org/wiki/Cyprianische_Pest[2] https://commons.wikimedia.org/wiki/File:Justinien_527-565.svg[3] https://creativecommons.org/licenses/by-sa/2.5/deed.de[4] https://de.wikipedia.org/wiki/Nika-Aufstand[5] https://de.wikipedia.org/wiki/Yersinia_pestis
Copyright © 2025 Heise Medien
(Bild: Sergey Spritnyuk / Shutterstock.com)
Wechselwarme Tiere fallen in Kältestarre und suchen frostfreie Orte. Manche Arten fressen sogar Lebensmittelmotten in der Küche.
Sobald sich der Herbst ankündigt, suchen sich Spinnen ein sicheres Winterquartier. Weil die wechselwarmen Tiere ihre Körpertemperatur nicht selbst regeln können, passen sie sich der Außentemperatur an: ihre Körper fallen in Kältestarre.
Draußen verkriechen sie sich an einem sicheren frostfreien Ort im Boden, unter Laub- oder Holzhaufen oder zwischen Steinen. Typische Hausspinnen wie die Spaltenkreuzspinne [1] quartieren sich gerne im Wohnzimmer, Keller und Garagen ein. Zitterspinne [2] und Weberknecht [3] suchen gerne das Badezimmer auf, weil dort die Luftfeuchtigkeit meist höher ist.
Die meisten Spinnenarten hierzulande sind ungefährlich. Sie sind weder aggressiv noch giftig. Im Gegenteil, sie helfen, "Ungeziefer" zu vernichten. Die Borsten und feinen Härchen an den Beinen und am Körper sind wichtige Sinnesorgane, mit denen sie geringste Erschütterungen und Schwingungen wahrnehmen und auf Beute reagieren.
So geraten neben lästigen Stechmücken, Motten und Fliegen auch kleinere Spinnen in die Fänge größerer Spinnen. Einige Arten, die sich gerne in der Küche verkriechen, verspeisen auch Lebensmittelmotten.
Vor allem wegen ihrer Größe machen Spinnen vielen Menschen Angst. Etwa die harmlose, bis zu zwölf Millimeter große, dicht behaarte, dunkle Große Winkelspinne [4], die tagsüber meist reglos in Ecken und Winkeln des Hauses hockt.
Von ihr gibt es hierzulande zehn Unterarten, darunter Hauswinkelspinne und Mauerwinkelspinne. Auf ihrem Speiseplan stehen Insekten und Asseln.
Gerät ein Beutetier in ihre Fangfäden, läuft die Winkelspinne blitzschnell hinzu, beißt zu und injiziert Gift in das Tier, um es zu lähmen. Nach wiederholten Bissen kann sie selbst größere Beute überwältigen, um sie später im Schutz ihrer Wohnröhre zu verzehren.
Zitterspinnen fühlen sich in Altbauwohnungen genauso wohl wie im Neubau, in Kellern und auf Dachböden. Wer die Zitterspinne duldet, wird der Winkelspinne kaum begegnen. Obwohl sie so zerbrechlich wirken, können sie es mit deutlich größeren Beutetieren aufnehmen. So stehen Kellerasseln, Wanzen, Fliegen und Mücken auf ihrem Speiseplan, sogar Silber- und Papierfischchen.
Zu unterscheiden ist die bis zu zehn Millimeter lange Große Zitterspinne, zu erkennen an ihren langen, geknickten Beinen im Verhältnis zum stabförmigen, braun gemusterten Körper – und die um die Hälfte kleiner Zitterspinne, die bei uns seltener anzutreffen ist.
Meist tasten sie sich vorsichtig, ein Bein nach dem anderen ausstreckend, voran. Zudem spannen Zitterspinnen kreuz und quer fast unsichtbare, hauchdünne, elastische Fäden, die nicht kleben und in denen sich Insektenbeine leicht verhaken. Zappelt ein potenzielles Beutetier in einer solchen "Fußangel", rennt die Zitterspinne herbei und wickelt es ein, wobei sie beständig weitere Fäden produziert, um die Beute zu verschnüren. Sie wird anschließend mit einem speziellen Giftcocktail getötet, aufgelöst und ausgesaugt.
Oft lassen sich Spinnen beobachten, die friedlich nebeneinander leben und deren Netze sich sogar überlappen. Die Netze hängen – ebenso wie ihre Bewohner – an Decken und in Ecken. Häufig bemerkt man sie erst, wenn sie bereits verlassen sind und Staub fangen [5].
Zitterspinnen werden oft mit Weberknechten verwechselt, weil diese über ähnlich lange Beine verfügen. Doch während Spinnen einen deutlich zweigeteilten Körper haben, sind beim Weberknecht Vorder- und Hinterkörper miteinander verwachsen, sodass ihr Körper sehr kompakt und kugelig wirkt. Die Augen sitzen auf kleinen Hügelchen. Zudem kommt er ohne Fangnetze aus.
Etwa 40 heimische Arten kommen hierzulande vor, manche ernähren sich von toten Insekten. Besonders auffällig sind die sehr langen Beine, wobei das zweite Beinpaar meist besonders lang ist und häufig auch zum Tasten genutzt wird. Vorsicht beim Berühren: Viele Weberknechte besitzen an ihren Beinen eine Sollbruchstelle und werfen bei Gefahr schnell mal ein Bein ab, um dadurch einem möglichen Fressfeind zu entkommen. [6]
Die Seidenfäden der Kreuzspinne können es in puncto Festigkeit, Elastizität, Dehnbarkeit mit von Menschen gefertigten Hightechmaterialien aufnehmen. [7]So kann ihr Netz um das Dreifache ihrer Länge gedehnt werden, ohne zu zerreißen.
Die Fäden bestehen aus verschiedenen Eiweißen, die in den Spinndrüsen im Hinterleib hergestellt und durch die sechs Spinnwarzen am Hinterleib ausgeschieden werden.
Gerät eine Fliege in die Fangfäden des Netzes, wird es erschüttert, sodass die Spinne alarmiert wird und ihre Beute mit Spinnenseide einzuwickeln beginnt. Durch das Gift gelähmt, wird die eingesponnene Fliege in eine Ecke transportiert, wo sie in Ruhe verspeist oder als Vorrat im Netz hängen gelassen wird.
Erstmals 2005 in Freiburg im Breisgau entdeckt, hat sich die ursprünglich aus dem Mittelmeerraum stammende Nosferatu nahezu flächendeckend in ganz Deutschland [8] ausgebreitet. Ihren Namen verdankt die Spinne einer Rückenzeichnung, die an die gleichnamige Filmfigur erinnert.
Mit ein bis zwei Zentimetern Körperlänge und einer Beinspannweite von etwa fünf Zentimetern zählt sie zu den größten achtbeinigen Hausbewohnern. Als nächtlicher Jäger jagt sie vorwiegend Fliegen und andere Insekten, wobei sie sich mithilfe spezieller Hafthaare an senkrechten Glasscheiben festhalten kann.
Ihr Gift ist für Menschen nicht gefährlich, der Biss nur etwa so schmerzhaft wie ein leichter Bienen- oder Wespenstich, sofern keine Allergie vorliegt. Obwohl sie zur Ordnung der Webspinnen zählt, baut sie keine Netze, stattdessen verfolgt sie ihre Beute.
Die wärmeliebende Art lebt hauptsächlich in und an Gebäuden, doch auch im Freien ist sie inzwischen immer häufiger anzutreffen, insbesondere im Rheintal. Ein Grund dafür seien die immer wärmer werdenden Sommer, weiß Hubert Höfer vom Naturkundemuseum Karlsruhe [9].
Forscher aus Deutschland, Schweden und der Schweiz rechneten aus, dass alle Spinnen weltweit pro Jahr zwischen 400 und 800 Millionen Tonnen Insekten und andere Kleinsttiere fressen. (Zum Vergleich: Wale nehmen zwischen 280 und 500 Millionen Tonnen Nahrung auf. Und Meeresvögel schaffen 70 Millionen Tonnen Fisch und Meeresfrüchte.)
Vor allem in Wäldern und Graslandschaften, wo die meisten Spinnen lebten, verhinderten die Tiere viele Insektenplagen. Doch Spinnen dienen selbst als Nahrung: Zwischen 8.000 und 10.000 Räuber und Parasiten ernähren sich ausschließlich von Spinnen, weiß Martin Nyffeler von der Universität Basel. Sie werden von bis zu 5.000 Vogelarten sowie von Schlupfwespen und Eidechsen verzehrt. [10]
In den meisten Häusern und Wohnungen haben sich irgendwo Spinnen eingenistet. Werden sie von Wohnungsbesitzern entdeckt, wedeln sie oft hektisch mit Putzwedeln oder sie hantieren mit dem Staubsauger, manche erschlagen sie auch.
Für die Spinne ist das die schlechteste Variante. Besser holt man sie aus den Ecken vorsichtig mit einem Staubwedel herunter. Sitzen sie an den Wänden, setzt man behutsam ein Glas über das Tier, schiebt eine Pappe darunter und lässt sie ins Freie. [11]
Eine schonende Alternative sind spezielle Spinnenfänger, [12] mit deren Hilfe man die Tiere entfernen kann, ohne sie töten zu müssen. Eine effizientere Abwehr sind Fliegengitter an den Fenstern. Findet man Spinnen in stark beheizten Räumen mit niedriger Luftfeuchtigkeit, so ist es besser, sie nach draußen zu setzen, weil sie sonst zu vertrocknen drohen.
Spinnen lassen sich auch mit bestimmten Düften vertreiben. Zum Beispiel kann man sich mit ein paar Tropfen Pfefferminze und Wasser ein Anti-Spinnen-Spray mixen und die Lösung alle zwei bis drei Tage in dunkle Ecken und Ritzen sprühen. Oder man gibt Pfefferminzöl in einen Aroma-Diffuser oder eine Duftschale, sodass sich der Duft im Raum verteilt, oder man beträufelt ein (Duft-)Kissen mit Pfefferminzöl [13].
Eine ähnliche Wirkung soll auch Lavendelöl, Eukalyptus, Essig, Zitronen- oder Orangenschalen erzielen, denn Spinnen reagieren empfindlich auf ätherische Öle. [14]Wenn all das nichts hilft, hilft eine Lösung aus Tabak und Wasser. Doch weil Tabak streng riecht, ist sie eher auf Balkon, Terrasse, im Dachboden und Keller auszubringen als in Innenräumen.
Auf chemische Giftstoffe sollte generell verzichtet werden. Wer Spinnen gar nicht erst ins Haus lassen will, dichtet Fenster und Türen ab. Am besten bringt man Fliegengitter an denjenigen Fenstern oder Balkontüren an, die regelmäßig geöffnet werden.
Spinnenseide besteht aus sehr filigranem und gleichzeitig robustem Material. Sie ist federleicht und gleichzeitig reißfester als Stahl und elastischer als Gummi. In der Medizin wird derzeit untersucht, ob mit den Fäden kaputte Nervenstränge verbunden werden können [15]. Auch der Einsatz als Knochen- und Knorpelersatz wird erforscht [16].
Das Gift mancher Spinnenarten kann Genesungsvorgänge beschleunigen: Eine Studie an der University of Queensland [17], die Versuchstiere beobachtet hatte, kam zu dem Schluss, dass sich Patienten schneller von einem Schlaganfall erholten.
Sogar gegen Krebs soll Spinnengift helfen: So entdeckten Wissenschaftler der Universität Jena [18] ein Toxin, das bereits in kleinen Mengen menschliche Zellen tötet. Sie wollen das Gift anpassen und gezielt gegen Krebszellen einsetzen [19].
URL dieses Artikels:https://www.heise.de/-10778300
Links in diesem Artikel:[1] https://arthropodafotos.de/dbsp.php?lang=deu&sc=1&ta=t_2_ara_lab_aran&sci=Nuctenea&scisp=umbratica[2] https://utopia.de/ratgeber/zitterspinne-deshalb-solltest-du-sie-in-deinem-haus-willkommen-heissen_718585/[3] https://www.nabu.de/tiere-und-pflanzen/insekten-und-spinnen/spinnen/13324.html[4] https://www.nabu.de/tiere-und-pflanzen/insekten-und-spinnen/spinnen/07481.html[5] https://www.geo.de/natur/zitterspinnen--nuetzliche-kammerjaeger-in-der-wohnung-36074012.html?utm_source=firefox-newtab-de-de[6] https://www.nabu.de/tiere-und-pflanzen/insekten-und-spinnen/spinnen/13324.html[7] https://www.deutschewildtierstiftung.de/wildtiere/kreuzspinnen[8] https://baden-wuerttemberg.nabu.de/tiere-und-pflanzen/insekten-und-spinnen/spinne/34049.html[9] https://www.tagesschau.de/wissen/nosferatu-spinne-102.html[10] https://science.orf.at/v2/stories/2831125/[11] https://utopia.de/ratgeber/kein-grund-zur-panik-darum-solltest-du-spinnen-nicht-toeten_280112/[12] https://www.geo.de/vergleich/spinnenfaenger/[13] https://www.oekotest.de/bauen-wohnen/Spinnen-vertreiben-Welche-Hausmittel-helfen--und-welche-nutzlos-sind_12831_1.html[14] https://www.nordbayern.de/service/wohnen/spinnen-vertreiben-tipps-hausmittel-1.14403699?utm_source=gads&utm_medium=pmax&utm_campaign=news-nonstop&gad_source=1&gad_campaignid=22446533495&gclid=EAIaIQobChMIwofA3bejkAMVbKSDBx2TMRqDEAAYAyAAEgJEwPD_BwE[15] https://www1.wdr.de/mediathek/video-spinnenseide-fuer-die-medizin-100.html[16] https://www.fr.de/zukunft/storys/gesundheit/biooekonomie-spinnenmelken-fuer-die-medizin-90926670.html[17] https://www.pnas.org/content/114/14/3750[18] https://www.wissenschaftsjahr.de/2020-21/aktuelles-aus-der-biooekonomie/aktuelle-meldungen/maerz-2020/spinnengift-als-krebsmedikament.html[19] https://utopia.de/ratgeber/kein-grund-zur-panik-darum-solltest-du-spinnen-nicht-toeten_280112/
Copyright © 2025 Heise Medien
KI-generierte Illustration
Innovation oder Illusion? Ein Fahrzeug, das Drohnen orten, verfolgen und abschießen soll – halb Roboter, halb Soldat. Was das Konzept über die Zukunft des Kriegs verrät.
Die Bedrohung durch Drohnen hat die moderne Kriegsführung grundlegend verändert. Auf Gefechtsfeldern und für kritische Infrastrukturen stellen sie eine wachsende Gefahr dar, die neue Abwehrsysteme erfordert.
Der deutsche Rüstungskonzern Diehl Defence hat mit dem Kinetic Defence Vehicle (KDV) einen Ansatz zur Drohnenabwehr entwickelt, der sich durch Mobilität und Kosteneffizienz auszeichnen soll.
Nach Informationen von Hartpunkt [1] wurde das KDV ursprünglich als hochmobile Lösung für den taktischen Einsatz im Nah- und Nächstbereichsschutz konzipiert.
Inzwischen erweitert Diehl Defence das System mit zusätzlichen Effektoren, um einen kostengünstigeren Schutz vor Drohnen zu bieten. Der Fokus liegt dabei speziell auf der Abwehr von Drohnen, nicht auf der Bekämpfung von Marschflugkörpern, ballistischen Raketen oder Kampfflugzeugen.
Parallel dazu entwickelt das Unternehmen laut Defence Network [2] das System "Sky Sphere", dessen Demonstration noch 2025 erfolgen soll. Es basiert auf einem modularen Konzept, bei dem Sensoren und Effektoren über standardisierte Schnittstellen kombiniert werden.
Das KDV basiert auf dem Enok AB-Fahrzeug (in der Bundeswehr als Caracal [3] bekannt), das auf einer Mercedes-G-Plattform aufbaut und hubschraubertransportfähig ist.
Das Sensorsystem kombiniert ein US-amerikanisches Echodyne-Radar mit mehreren Kameras und kann Drohnen in einem Sektor von 120 bis 360 Grad erfassen. Nach der Identifikation einer Bedrohung berechnet das System automatisch Flugdaten und leitet diese an die Waffe weiter.
Derzeit muss ein Bediener den Waffeneinsatz noch freigeben ("Man-in-the-Loop"), was technisch nicht zwingend erforderlich erscheint und künftig möglicherweise durch vollautomatische Bekämpfung ersetzt werden könnte.
Auf der EnforceTac 2025 [4]wurde ein erweitertes Sensorpaket auf einem ausfahrbaren Mast präsentiert, das Drohnen auf bis zu 12 Kilometer erkennen kann.
Zur Bekämpfung im Nahbereich nutzt das KDV eine stabilisierte Waffenstation, die auch während der Fahrt eingesetzt werden kann. Das Fahrzeug wurde ursprünglich mit einem mehrläufigen 7,62-mm-Maschinengewehr (M134D) ausgestattet, das Ziele auf etwa 1.000 bis 1.200 Meter bekämpfen kann.
Diese aus den USA stammende Waffe zeichnet sich durch ein rotierendes Gatling-System [5] mit sehr hoher Feuerrate aus. In einer neueren Version wurde laut hartpunkt.de eine australische Maschinenwaffe im Kaliber 12,7 mm integriert, die die Reichweite auf etwa 2.000 Meter erhöht.
Das KDV ist nicht nur für die Abwehr von FPV-Drohnen im Nahbereich konzipiert, sondern könnte auch strategische Langstreckendrohnen wie die russischen Geran-Modelle bekämpfen. Bemerkenswert ist, dass diese Drohnen zunehmend nicht nur gegen strategische Hinterlandziele, sondern auch gegen Frontziele eingesetzt werden.
Die Kombination aus leistungsfähiger Sensorik und der reichweitengesteigerten 12,7-mm-Maschinenwaffe ermöglicht theoretisch die Erfassung und Bekämpfung solcher Drohnen auf Entfernungen von bis zu 2.000 Metern.
Besonders wenn sich Langstreckendrohnen ihrem Ziel nähern und dabei oft in niedrigere Flughöhen absinken, könnte das KDV als letzte Verteidigungslinie dienen. Diese Fähigkeit macht das System für Truppen im Fronteinsatz zunehmend relevant, da die Bedrohung durch strategische Drohnen nicht mehr auf das Hinterland beschränkt bleibt.
Diehl Defence arbeitet an der Integration verschiedener kinetischer Abfangdrohnen in das KDV-System. Zentral ist dabei die selbst entwickelte Cicada-Abfangdrohne, die im Frühjahr 2024 erstmals präsentiert wurde und mit zwei unterschiedlichen Gefechtsköpfen ausgestattet werden kann: einem Splitter-Gefechtskopf für militärische Einsätze und einer Netzversion für zivile Anwendungen.
Die Cicada kann senkrecht starten und landen, wodurch sie mehrfach einsetzbar ist. Bei der Netzversion funktioniert das System folgendermaßen: Die Cicada fliegt an die feindliche Drohne heran und schießt dann ein Netz ab, das die gegnerische Drohne einfängt und mit einem Fallschirm zu Boden bringt. Die Cicada selbst bleibt dabei intakt und kann für weitere Einsätze verwendet werden.
Die Reichweite wird mit bis zu fünf Kilometern angegeben, könnte aber mit externen Sensoren deutlich erweitert werden. Laut Unternehmensangaben soll auch eine Abfangdrohne eines anderen Herstellers integriert werden, die feindliche Drohnen auf Entfernungen von mehr als 20 km bekämpfen kann.
Das KDV soll je nach Konfiguration zehn bis 20 Abfangdrohnen aufnehmen können. Die Anbindung an das übergeordnete Luftlagebild erweitert die Aufklärungsreichweite und ermöglicht die Voreinweisung der Abfangdrohnen. Das System kann die Drohnen auch während des Fluges steuern.
Für Einsätze in Friedenszeiten oder urbanen Gebieten kann das KDV mit spezieller Drohnenabwehrmunition des Fürther Herstellers RWS sowie der Cicada mit Netzversion ausgestattet werden, um kritische Infrastruktur ohne Umgebungsgefährdung zu schützen.
Wie Defense Mirror [6] berichtet, hat Deutschland das Kinetic Defence Vehicle an ukrainische Spezialkräfte geliefert.
Nach Angaben von Defense Mirror wurde die Ukraine damit zum ersten operativen Nutzer dieses Drohnenabwehrsystems. Zunächst wurden fünf Fahrzeuge Anfang 2024 geliefert, gefolgt von einer zweiten Bestellung für 20 weitere Einheiten, finanziert durch die deutsche Regierung.
Bemerkenswert ist jedoch, dass trotz des Einsatzes im ukrainischen Konflikt kaum Informationen über die tatsächliche Leistungsfähigkeit des Systems an die Öffentlichkeit gelangt sind. Es fehlen belastbare Berichte über Abschusszahlen, Erfolgsquoten oder spezifische Einsatzszenarien. Diese Informationslücke erschwert eine objektive Bewertung der praktischen Wirksamkeit des KDV unter realen Gefechtsbedingungen.
Die Lieferungen sind Teil der deutschen militärischen Unterstützung für die Ukraine, doch ohne transparente Daten zur Einsatzleistung bleibt die reale Wirksamkeit des KDV gegen moderne Drohnenbedrohungen weiterhin ungewiss.
Das Kinetic Defence Vehicle von Diehl Defence stellt einen interessanten und vergleichsweise kostengünstigen Ansatz zur Drohnenabwehr dar.
Im Gegensatz zu teuren, umfassenden Luftverteidigungssystemen wie dem Rheinmetall Skyranger, der mit einem Stückpreis von zehn bis 13 Millionen Euro zu Buche schlägt, fokussiert sich das KDV gezielt auf die Drohnenbedrohung und verzichtet bewusst auf die Bekämpfung konventioneller Luftziele.
Die entscheidende Frage bleibt die Effizienz des Systems gegen Drohnenschwärme. Moderne Kriegführung setzt zunehmend auf den massenhaften Einsatz günstiger Drohnen, die aus verschiedenen Richtungen gleichzeitig angreifen können.
Hier muss sich zeigen, ob die Automatisierung und Reaktionsgeschwindigkeit des KDV ausreicht, um mehrere Ziele in kurzer Zeit zu erfassen und zu bekämpfen. Die derzeitige "Man-in-the-Loop"-Architektur, bei der ein Bediener den Waffeneinsatz freigeben muss, könnte zum Engpass werden.
Die Integration von Abfangdrohnen verwandelt das KDV von einem spezialisierten kinetischen Abwehrsystem zu einem Mehrzweck-Abwehrkonzept, was konzeptionell fragwürdig erscheint. Die Kapazität von nur etwa 20 Abfangdrohnen könnte zu erheblichen Kosten kommen und die Effektivität der Hauptwaffe einschränken.
Auch die vermeintliche Wiederverwertbarkeit der Cicada-Abfangdrohnen ist technisch komplex und könnte die Kostengleichung zum Nachteil des Verteidigers verschieben.
Ebenso unklar bleibt die Effektivität gegen FPV-Drohnen, die am Boden minenartig auf Ziele warten können. Diese stationären, scheinbar inaktiven Bedrohungen stellen für jedes Aufklärungssystem eine besondere Herausforderung dar.
Der Ansatz, sich auf einen gut funktionierenden kinetischen Effektor zu konzentrieren, wie eine automatisierte Waffenstation, erscheint vielversprechend – besonders wenn eine Integration mit bereits existierenden Plattformen möglich wäre.
Der Puma-Schützenpanzer zeigt mit seinem Drohnenabwehr-Kit [7], dass bestehende Waffensysteme mit relativ einfachen Modifikationen zur Drohnenabwehr befähigt werden können.
URL dieses Artikels:https://www.heise.de/-10778312
Links in diesem Artikel:[1] https://www.hartpunkt.de/vom-naechstbereich-zum-raumdeckenden-schutz-diehl-defence-entwickelt-drohnenabwehr-fahrzeug-kinetic-defence-vehicle-weiter/[2] https://defence-network.com/neue-drohnenabwehr-sky-sphere-diehl-defence/[3] https://www.rheinmetall.com/de/produkte/taktische-radfahrzeuge/taktische-radfahrzeuge/luftlandefahrzeug-caracal[4] https://defence-network.com/enforce-tac-2025-sicherheitsmesse/[5] https://de.wikipedia.org/wiki/Gatling_(Waffenklasse)[6] https://defensemirror.com/news/39553/Ukrainian_Special_Forces_Receive_German_Caracal_Anti_Drone_SUVs[7] https://www.hartpunkt.de/drohnenabwehr-kit-fuer-puma-turm-ermoeglicht-bekaempfung-von-drohnenschwaermen/
Copyright © 2025 Heise Medien
(Bild: BMW)
Donald Trump wollte Vergünstigungen für US-Autobauer bei Zöllen auf importierte Bauteile ursprünglich 2027 auslaufen lassen. Doch jetzt werden sie verlängert.
US-Präsident Donald Trump hat Zollvergünstigungen bei in den USA produzierten Autos mit importierten Bauteilen bis zum Jahr 2030 verlängert. Hersteller können dabei bis zu 3,75 Prozent vom Verkaufspreis ihrer Fahrzeuge erstattet bekommen. Die Maßnahme sollte ursprünglich 2027 auslaufen – und der Erstattungs-Anteil vom zweiten Jahr an auf 2,5 Prozent sinken.
Trump hatte die Zölle von 25 Prozent auf importierte Autos und Bauteile im Frühjahr verhängt. Der Präsident verkündete nun auch Zölle [1] auf Importe von Lastwagen und Bussen in die USA. Bei Lastwagen und Bauteilen dafür liegt der Zoll bei 25 Prozent. Wie bei den Autos können Hersteller bis 2030 für in den USA gebaute Fahrzeuge 3,75 Prozent vom Verkaufspreis zurückbekommen. Trump verwies darauf, dass rund 43 Prozent der in den USA verkauften Lastwagen importiert seien. Bei Bussen wurde der Zoll auf zehn Prozent festgelegt.
Mit der Verlängerung der Vergünstigungen geht Trump auf Sorgen von US-Herstellern wie Ford [2] und General Motors ein. Sie sahen vor allem in der Handelsvereinbarung mit Japan, die einen Zoll von 15 Prozent auf dort gebaute Fahrzeuge festlegte, einen problematischen Deal für die amerikanische Industrie. Denn bei in den USA montierten Fahrzeugen liegt der Anteil importierter Bauteile, auf die jedoch Zölle von 25 Prozent fällig werden können, bei 40 bis 50 Prozent.
URL dieses Artikels:
https://www.heise.de/-10778348
Links in diesem Artikel:
[1] https://www.whitehouse.gov/fact-sheets/2025/10/fact-sheet-president-donald-j-trump-addresses-the-threat-to-national-security-from-imports-of-medium-and-heavy-duty-vehicles-parts-and-buses/
[2] https://www.heise.de/news/Ford-US-Zoelle-belasten-mit-bis-zu-1-5-Milliarden-Dollar-10372708.html
[3] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[4] mailto:nico.ernst@gmail.com
Copyright © 2025 Heise Medien
Die Zeit läuft: Wer mitmachen will, muss streng genommen schon bis zum 20. November wichtige Schritte der Registrierung erledigt haben.
(Bild: zeroday.cloud)
Ein neuer Wettbewerb mit Cloud-Fokus bietet hohe Preisgelder für Zero-Day-Exploits – und folgt damit einem allgemeinen Trend im Wettlauf gegen Cybergangster.
Noch bis zum 1. Dezember 2025 können ambitionierte Hacker im Rahmen des erstmalig stattfindenden Wettbewerbs Zeroday Cloud (Eigenschreibweise: zeroday.cloud) ihren Exploit-Code einreichen.
Erfolgreichen Teilnehmern winken Preisgelder in Höhe von insgesamt rund 4,5 Millionen US-Dollar, verteilt auf mehr als 20 weitverbreitete Anwendungen, die auf verschiedene Arten eng mit Cloud-Technologien in Verbindung stehen. Dazu zählen etwa das Nvidia Container Toolkit, Kubernetes, Grafana, Docker, Apache Tomcat, PostgreSQL, Jenkins, Gitlab CE und der Linux-Kernel.
Wichtigste Bedingung des vom Cloudsicherheits-Unternehmen Wiz in Zusammenarbeit mit AWS (Amazon Web Services), Google und Microsoft veranstalteten Contests: Es muss sich um einen Zero-Day-Exploit, also einen Angriff auf eine neu entdeckte, bislang unbekannte Lücke handeln. Ferner muss der Angriff letztlich zur vollständigen Kompromittierung des verwundbaren Systems führen ("0-click unauthenticated Remote Code Execution").
Die gesamte Liste möglicher Angriffsziele nebst Preisgeldern können Interessierte der Website des Zeroday Cloud-Wettbewerbs [1] entnehmen. Dort findet man auch die genauen Teilnahmebedingungen, Anmeldeformulare und weitere Informationen. Vorkonfigurierte Zielsysteme zum Einbinden in Docker [2] haben die Veranstalter in einem eigenen GitHub-Repository [3] hinterlegt.
Teilnehmer, deren Beitrag von der Jury akzeptiert wird, haben die Gelegenheit, ihren Exploit im Rahmen der im Dezember in London stattfindenden Konferenz Black Hat Europe live zu demonstrieren. Gelingt dort der Angriff, haben sie gewonnen. Der betreffende Exploit wird anschließend im Zuge eines Responsible-Disclosure-Verfahrens an den betreffenden Hersteller übermittelt, um diesem ausreichend Zeit zum Schließen der Lücke zu geben.
Wichtig bei der Anmeldung: Laut Veranstalter müssen sich einzeln oder auch als Team Teilnehmende bereits bis zum 20. November auf der Bug-Bounty-Plattform HackerOne registrieren, den vorgeschriebenen Identitätsnachweis erbracht und bestimmte Steuer- und sonstige Angaben übermittelt haben. Die Frist bis zum 1. Dezember bezieht sich also missverständlicherweise nur auf den Exploit selbst.
(Bild: zeroday.cloud / Screenshot)
Mit einem Wettbewerb, der sich speziell auf die Cloud fokussiert, füllt Wiz eine wichtige Lücke. Denn als Speicherort riesiger Mengen von Unternehmensdaten rückt diese immer stärker ins Visier von Cybergangstern. So zapfen etwa einige Ransomware-Gangs mittlerweile gezielt Cloudspeicher an, um möglichst effizient an Informationen zu gelangen, die sich für eine Erpressung eignen. Andere verschlüsseln Daten gleich an Ort und Stelle [4]. Oder sie zerstören Cloud-Backups, um ihre Chance auf ein Lösegeld zu erhöhen.
Exploit-Code, der rechtzeitig in die richtigen Hände gelangt, hilft Unternehmen dabei, Angreifern einen Schritt voraus zu sein. Hohe Geldbeträge als Preis eines Wettbewerbs stellen in diesem Zusammenhang viel mehr als nur eine nette Belohnung für wohlmeinende, hilfsbereite Sicherheitsforscher dar. Mit ihnen lassen sich vielmehr auch Teilnehmer anlocken, die ihre Zero-Day-Exploits sonst womöglich in Untergrundforen feilbieten und dort letztlich an Kriminelle verkaufen würden, die schon für den nächsten Angriff in den Startlöchern stehen.
Dass es darauf ankommt, die Preise des Schwarzmarkts zu überbieten, erkennen immer mehr Unternehmen. Zuletzt baute etwa Apple sein Bug-Bounty-Programm massiv aus: Die bisherigen Zahlungen wurden verdoppelt bis vervierfacht. So bot das Unternehmen bislang für einen Zero-Click-Angriff aus der Ferne, der keine Nutzerinteraktion verlangt und die Geräteübernahme ermöglicht, bis zu einer Million Dollar. Nun sind es zwei Millionen [5].
URL dieses Artikels:
https://www.heise.de/-10778248
Links in diesem Artikel:
[1] https://www.zeroday.cloud/
[2] https://www.heise.de/thema/Docker
[3] https://github.com/wiz-sec-public/zeroday-cloud-2025
[4] https://www.heise.de/news/Codefinger-Ransomware-verschluesselt-Amazon-S3-Buckets-10244874.html
[5] https://www.heise.de/news/Apple-baut-Bug-Bounty-Programm-aus-gibt-bis-zu-2-Millionen-Dollar-10749183.html
[6] https://aktionen.heise.de/heise-security-pro?LPID=39555_HS1L0001_27416_999_0&wt_mc=disp.fd.security-pro.security_pro24.disp.disp.disp
[7] mailto:olivia.von.westernhagen@gmail.com
Copyright © 2025 Heise Medien
Kommerzielle VPN-Anbieter versprechen, quasi alles Böse im Internet auszusperren. Wir diskutieren, was davon stimmt und wann ein eigenes VPN sinnvoll ist.
Kommerzielle VPN [1]-Anbieter wie Bitdefender Premium VPN, ExpressVPN, hide.me VPN, IVPN, Mullvad VPN, NordVPN, Proton VPN, TunnelBear und Windscribe versprechen, ihre Kunden für ein paar Euro im Monat vor quasi allen Bedrohungen des Internets zu schützen. Und nebenher kann man dadrüber anonym surfen, ausländische Streamingdienste nutzen oder, wenn man selbst im Ausland ist, die deutschen Abos und Mediatheken gucken.
Einiges davon stimmt, anderes, naja, nur so halb. Und manches kriegt ihr auch mit einem eigenen VPN gelöst, was ja viele Router direkt anbieten. Im Podcast erläutert c’t-Redakteur Keywan Tonekaboni die Vor- und Nachteile der kommerziellen VPNs.
Die VPNs versprechen Sicherheit, wobei vor allem Sicherheit gegenüber dem Provider – also der Internetanbieter oder der Beitreiber etwa des Hotel-, Café- oder Zug-WLANs – gemeint ist. Sie versprechen Anonymität, was wiederum eher gegenüber der Betreiber der Websites gilt, die man besucht. Sie versprechen, das Geofencing einiger Dienstanbieter zu umgehen – was tatsächlich gut funktioniert. Und sie versprechen, bei Behördenanfragen weniger oder keine Daten herauszurücken, was ein etwas komplizierteres Gebiet ist. Ein Nebeneffekt der VPNs sind zudem Werbeblocker.
Als Alternativen kommen vor allem selbst aufgesetzte VPNs in Frage. Wir erklären, für welche der Anwendungen das hilft und für welche nicht. Und wann und wovor vielleicht weitere Dienste wie TOR oder spezielle DNS-Server sogar besser als ein VPN schützen.
Zu Gast im Studio: Keywan Tonekaboni
Host: Jörg Wirtgen
Produktion: Ralf Taschke
► Die c’t-Artikel zum Thema (Paywall):
https://www.heise.de/select/ct/2025/22/2523811201254776159 [9]
https://www.heise.de/select/ct/2025/22/2525209403380311002 [10]
https://www.heise.de/select/ct/2025/22/2523811245173997693 [11]
In unserem WhatsApp-Kanal [12] sortieren Torsten und Jan aus der Chefredaktion das Geschehen in der IT-Welt, fassen das Wichtigste zusammen und werfen einen Blick auf das, was unsere Kollegen gerade so vorbereiten.
► c't Magazin [13]
► c't auf Mastodon [14]
► c't auf Instagram [15]
► c't auf Facebook [16]
► c't auf Bluesky [17]
► c’t auf Threads [18]
► c't auf Papier: überall, wo es Zeitschriften gibt!
URL dieses Artikels:
https://www.heise.de/-10773762
Links in diesem Artikel:
[1] https://www.heise.de/thema/VPN
[2] https://ct.de/uplink
[3] https://www.youtube.com/@ct.uplink
[4] https://itunes.apple.com/de/podcast/ct-uplink/id835717958
[5] https://itunes.apple.com/de/podcast/ct-uplink-video/id927435923?mt=2
[6] https://ct-uplink.podigee.io/feed/mp3
[7] https://www.heise.de/ct/uplink/ctuplinkvideohd.rss
[8] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[9] https://www.heise.de/select/ct/2025/22/2523811201254776159
[10] https://www.heise.de/select/ct/2025/22/2525209403380311002
[11] https://www.heise.de/select/ct/2025/22/2523811245173997693
[12] https://whatsapp.com/channel/0029VaCUFFEInlqYnQg2lb0h
[13] https://ct.de/
[14] https://social.heise.de/@ct_Magazin
[15] https://www.instagram.com/ct_magazin
[16] https://www.facebook.com/ctmagazin
[17] https://bsky.app/profile/ct.de
[18] https://www.threads.net/@ct_magazin
[19] https://www.heise.de/ct
[20] mailto:jow@ct.de
Copyright © 2025 Heise Medien
(Bild: erzeugt mit Midjourney von der iX-Redaktion)
Die Übersicht enthält kleine, aber interessante Meldungen zu Eclipse Theia, Prometheus, Crystal, Qt Design Studio, PyTorch, ripgrep, Cloud Canvas,
Zum Wochenende gibt es einen kleinen Überblick über alles, was es zwar nicht in die News geschafft hat, wir aber dennoch für spannend halten:
/clear oder /resume lassen sich direkt mit der Eingabe von / verwenden und benutzerdefinierte Befehle stehen in der Workspace-Autovervollständigung parat.Add first_over_time(...) und ts_of_first_over_time(...), die sich in Verbindung mit dem Feature Flag experimental-promql-functions nutzen lassen.Time#inspect an das in RFC 9557 definierte Internet Extended Date/Time Format (IXDTF). Der Compiler kann nun Typinformationen in eine JSON-Datei ausgeben, wenn die Umgebungsvariable CRYSTAL_DUMP_TYPE_INFO gesetzt ist, und die Standardbibliothek wurde um eine Reihe neuer Methoden erweitert, darunter Set#select! und #reject!, File.readlink?, SemanticVersion.valid? sowie SemanticVersion.parse?.torch.compile. Außerdem bringt die Version neue Paketvarianten für ROCm, XPU und CUDA 13, optimierte FlexAttention‑ und Flash‑Decoding‑Leistung sowie Verbesserungen auf Arm‑Plattformen..gitignore‑Handling behebt und die Leistung verbessert. Zudem bringt es erweiterte Globs, neue Farboptionen und Unterstützung für Windows aarch64.Sollten Sie ein wichtiges Thema vermissen, freuen wir uns über Ihre Mail [19].
URL dieses Artikels:
https://www.heise.de/-10767159
Links in diesem Artikel:
[1] https://eclipsesource.com/blogs/2025/10/14/its-released-your-native-claude-code-ide-integration-in-theia/
[2] https://github.com/prometheus/prometheus/releases/tag/v3.7.0
[3] https://www.heise.de/hintergrund/Einstieg-in-Crystal-Kompilierte-Sprache-mit-modernen-Konzepten-7454848.html
[4] https://crystal-lang.org/2025/10/14/1.18.0-released/
[5] https://www.qt.io/blog/qt-design-studio-4.8-released
[6] https://www.m3-konferenz.de/llm.php?wt_mc=intern.academy.dpunkt.konf_dpunkt_m3_llm.empfehlung-ho.link.link
[7] https://pytorch.org/blog/pytorch-2-9/
[8] https://github.com/BurntSushi/ripgrep/releases/tag/15.0.0
[9] https://blog.jetbrains.com/codecanvas/2025/10/jetbrains-is-sunsetting-codecanvas/
[10] https://www.heise.de/news/Leichter-Debuggen-Python-3-14-beseitigt-unklare-Fehlermeldungen-10723100.html
[11] https://pythoninsider.blogspot.com/2025/10/python-3150-alpha-1.html
[12] https://peps.python.org/pep-0790/#schedule
[13] https://attic.apache.org/projects/mesos.html
[14] https://attic.apache.org/
[15] https://zed.dev/blog/zed-for-windows-is-here
[16] https://www.heise.de/hintergrund/Sourcecode-Editor-Zed-Erfahrungen-aus-einem-Jahr-mit-einem-Underdog-9623943.html
[17] https://www.heise.de/news/Bitte-ohne-KI-Sourcecode-Editor-Zed-bietet-Ausschalter-fuer-KI-Funktionen-10499307.html
[18] https://zed.dev/blog/codex-is-live-in-zed
[19] mailto:developer@heise.de?subject=Ein%20Vorschlag%20f%C3%BCr%20die%20Developer%20Snapshots
[20] mailto:who@heise.de
Copyright © 2025 Heise Medien
Sora 2 heißt OpenAIs neue Video-Generierungs-App. In Wahrheit handelt es sich aber eher um einen TikTok-Klon – und zeigt das riesige Problem der KI-Branche.
OpenAIs Videogenerierungs-App Sora 2 befindet sich zurzeit auf Platz 1 des US-iOS-Appstores; das Interesse ist offenbar groß. Die Qualität der generierten Videos hat einen riesigen Sprung nach vorne gemacht. Interessanter ist aber, dass sich Sora als Social-Media-App positioniert. c't 3003 hat sie ausführlich getestet.
(Hinweis: Dieses Transkript ist für Menschen gedacht, die das Video oben nicht schauen können oder wollen. Der Text gibt nicht alle Informationen der Bildspur wieder.)
Guckt mal hier: Das bin nicht ich, sondern das ist ein von Sora 2 generierter Keno. Sora 2 von den ChatGPT‑Machern von OpenAI ist auf jeden Fall ziemlich beeindruckend. Es zeigt aber auch, dass die großen KI‑Firmen gerade womöglich ziemlich in der Sackgasse stecken. In diesem Video seht ihr, was Sora 2 kann, was es nicht kann – und das ist auch ein bisschen lustig, was es nicht kann, muss ich sagen –, wie man es bekommt und was das große Problem bei Sora ist. Ich habe für diesen Test über 200 Videos generiert. Bleibt dran.
Liebe Hackerinnen, liebe Internetsurfer, herzlich willkommen hier bei...
Ja, bevor ich jetzt in die große technische und soziale Analyse gehe, erst mal hier ganz stumpf ein paar Videos, die ich mit Sora 2 gemacht habe.
[Mehrere Videos sind zu sehen]
Also, ich finde, das ist tatsächlich das krasseste Video, weil ich habe es mir angeguckt und habe gedacht: Okay, das bin ich. Habe ich das gefilmt? Sind das Aufnahmen von mir? Also, weil – auch wie meine Haut aussieht – und also ganz ehrlich, ich übertreibe da nicht. Das würde ich glauben, dass das ich bin. Auch in diesen Großaufnahmen. Die habe ich auch meinen Kollegen geschickt, und guckt mal, Pascal war auch ganz beeindruckt und hat da direkt so eine technisch‑künstlerische Sicht drauf; ihm ist aufgefallen, wie das Licht "bounced" und kleine Schatten wirft.
[Mehr Videos sind zu sehen]
Wie ich da in den Videos rede, das hat nicht zwingend mit der Sprache des Prompts zu tun. Also, man kann einfach in Deutsch prompten, man kann auch auf Englisch prompten. Die Sachen, die ich sage – also wenn ich da nichts extra dazu schreibe –, die denkt Sora sich selber aus.
Also hier zum Beispiel bei meinem persönlichen Lieblings‑Sora‑Genre: Keno verwandelt sich in Würmer.
Und das ist ja auch typisch Sora 2. Oft weigert es sich, das zu machen – auch bei völlig harmlosen Sachen wie „Keno verwandelt sich in einen Wurm“. Weigerte sich, das zu generieren. Also, was Sora da für komische Fantasien hat – keine Ahnung.
Oder auch das hier ging nicht, wo ich einfach dieses Foto animiert haben wollte. Und Sora fantasiert mich auch erstaunlich häufig ohne Hose, was nicht ganz verstehe – hier ohne Hose als Elden‑Ring‑Boss. Und was ich auch interessant finde: dass es mich offenbar selbstständig ostfriesisch verortet – komplett ohne Prompt. Ich habe da also einfach nur meinen Namen gepromptet, und dann steht da auf einmal „Moin“ auf der Kaffeetasse. Oder auch, wenn ich einfach prompte „Keno als Reporter“. Ja, dann wirft Sora mich nach Emden.
Sowieso ganz lustig, diese "Lustige-Berufe-Prompten": Zum Beispiel Zugbegleiter stellt Sora sich total typisch amerikanisch vor. Das geht offenbar nur so retro‑mäßig mit so einer altmodischen Uniform, weil Züge gibt’s ja heute fast gar nicht mehr in den USA. Viele Sachen sehen auf jeden Fall gut aus, finde ich. Aber viele sehen auch gar nicht mal so gut aus. Vor allem, wenn ich irgendwas Cinematisches haben will – wie diese Film‑Noir‑Szene hier –, dann sieht der Hintergrund oft so richtig billig computergeneriert aus, wie aus einem alten Computerspiel. Ja, und obwohl Sora besser Physik versteht als andere KI‑Generatoren, weiß es offenbar nicht so genau, wie die Kulturtechnik des Rauchens funktioniert. Naja, erstmal noch ein bisschen tanzen, ne?
Und wenn ihr euch jetzt fragt: Kann Sora mich so gut nachbauen, weil es so viel Videomaterial von mir auf YouTube gibt? Nein, das hat damit gar nichts zu tun. Das kann jede und jeder, indem man nämlich einfach die Sora‑App installiert und hier auf „Cameo“ tippt. Dann blendet Sora drei Zahlen ein. Die muss man einsprechen. Das ist quasi der Kopierschutz meiner eigenen Identität – also, dass ich das nicht mit fremden Leuten mache.
Und ja, dann dreht man ein bisschen seinen Kopf und versucht, möglichst viele Gesichtsausdrücke in möglichst kurzer Zeit zu machen. Denn man hat nur insgesamt neun Sekunden Zeit. Dann wird das automatisch zu OpenAI hochgeladen, und diese neun Sekunden reichen aus, damit Sora Videos mit einem künstlichen Keno generieren kann – und sogar auch in Ansätzen zumindest mit meiner Stimme sprechen kann.
Also, meine Stimme klingt meiner Meinung nach nur ein ganz kleines bisschen wie meine echte Stimme. Das Problem hatte ich aber auch bei anderen KI‑Diensten wie Eleven Labs schon. Irgendwie spreche ich offenbar komisch. Bei anderen Leuten wie zum Beispiel dem deutschen Streamer Papaplatte klingt die aus diesen neun Sekunden trainierte, generierte Stimme schon, finde ich, ziemlich echt.
Ja, und wenn ihr euch jetzt fragt: Hä, wieso könnt ihr denn Papaplatte‑Videos generieren? Hat der euch die Daten gegeben oder was?
Nein, sondern alle können diese Videos machen. Denn er hat sein Cameo für alle freigegeben. So wie auch Sam Altman, Jake Paul, iJustine und Ricky Burwick.
Das könnte man jetzt erst mal total creepy finden. Also würde ich creepy finden, dass alle mit meinem Aussehen irgendwelchen Quatsch machen können. Ohne jegliche Hürden. Aber die Leute steigern damit offenbar auch ihre Popularität.
Also zumindest, wenn ich durch TikTok swipe, dann ist da ziemlich oft der Sora-generierte Kevin Teller, aka Papaplatte, zu sehen. Noch öfter sehe ich allerdings 2Pac, Michael Jackson, Martin Luther King und andere tote Berühmtheiten, die alle von der Inhaltssperre von Sora durchgelassen werden.
Mein Cameo habe ich übrigens nicht freigegeben. Also man kann diese Datenschutzeinstellungen einigermaßen detailliert justieren. Man kann auch einstellen, ob OpenAI die Sachen fürs eigene Training verwenden darf oder nicht.
Und diese Sora-Videos mit echten Menschen, das ist auf jeden Fall gerade ein Hype. Und ich könnte mir gut vorstellen, dass das auch auf längere Sicht ein Meme-Genre sein wird – also echte Leute in lustigen KI-generierten Situationen. Ganz ehrlich, ich finde das teilweise schon auch witzig. Da stecken manchmal schon ganz gute Ideen drin.
Ich bin da halt auch gerade im Thema und kann die Dinger sofort identifizieren. Also ich sehe, ob das Sora ist oder nicht. Ich nehme aber auch wahr, dass einigen Leuten das eben nicht gelingt und dass die die Sachen halt für echte Videos halten.
Also klar, OpenAI baut da überall so wabernde Sora-Wasserzeichen ein. Aber hey, das kann man wirklich ziemlich einfach wegblurren in jedem Videoschnittprogramm. Es gibt natürlich auch längst Tutorials zum Wegmachen der Wasserzeichen hier auf YouTube. Und andere Leute, die nicht so in der Tech-Bubble sind, die wissen ja eh gar nicht, was Sora ist.
Ich war neulich zum Frühstück eingeladen und habe der Gastgeberin im Messenger vorher dieses Video hier geschickt. Einfach ohne Kontext. Und die haben das nicht gecheckt, dass das KI-generiert ist.
Die haben da halt mit einem Auge hingeguckt, irgendwie so beim Tischdecken oder so, und dachten halt: „Ach, Keno, der macht ja so Sachen mit Videos, der hat uns da jetzt so ein lustiges Video aufgenommen. Ah ja, cool.“ Und das sind auf jeden Fall junge, medienkompetente Leute. Nur die sind halt nicht in der Tech-Bubble.
Das heißt, die haben das nicht permanent auf dem Schirm, dass man so einfach KI-Videos generieren kann – von sich selbst. Also ganz klar, und das ist jetzt auch ein ziemlich langweiliger Take: Videos im Internet kann man nicht mehr trauen. Und das ist ja eigentlich auch schon lange so. Aber Videos sind halt jetzt noch ein bisschen einfacher zu faken. OpenAI hat das Ganze jetzt noch mal deutlich einfacher gemacht.
Es wird deshalb immer wichtiger, immer drauf zu gucken, wer Videos postet, also ob man der Quelle vertraut. Und deshalb haben wir bei c’t 3003 ja auch schon seit Längerem die hochoffizielle Regel, dass wir nicht mit KI-generierten Inhalten arbeiten.
Ja, ich weiß, dass dieses Video hier zu großen Teilen aus KI-generierten Inhalten besteht, aber ich denke, dass das in dem Fall logisch ist. Also ein Video über Sora – da zeigt man Sora-Inhalte. Was ich natürlich meine, sind KI-generierte Inhalte, um irgendwas zu bebildern, für das man eigentlich keine Bilder hat oder keine Lust hat, eigene Bilder dazu zu machen. Und das natürlich auch nicht deklariert. Bei uns alles schön bio – aus der 3003-Bildtextton-Manufaktur.
Also das ist jetzt erst mal der offensichtliche Take. Was ich aber obendrauf total interessant finde: dass Sora jetzt im Gewand einer Social-Media-App daherkommt. Ja, also bislang waren KI-Tools ja meistens Websites, und dann gab es vielleicht irgendwann eine Mobil-App. Bei Sora ist das jetzt so, dass man das Ding nur benutzen kann, wenn man die iOS-App installiert und sich da zumindest einmal eingeloggt hat.
Im Moment braucht man dafür einen Einladungscode und einen US-App-Store-Account, um die Sora-App zu installieren. Hat man das dann auf iOS einmal zum Laufen gebracht – also auch in Deutschland –, dann braucht man dafür kein VPN, muss sich also nicht in die USA tunneln.
Will man Zugriff auf Sora 2 über die Website, dann muss man kurz sich in die USA tunneln mit dem VPN. Was auch ein bisschen weird ist: Das Anlegen von so einem Cameo von sich selbst geht nur mit der App. Das Generieren von Querformat-Videos geht nur über die Website. Also mit der App kann man nur Hochformat generieren.
Naja, es ist auf jeden Fall alles zurzeit noch komplett kostenlos. Man braucht für Sora 2 auch kein Plus-Abo oder so. Und man kann am Tag damit zurzeit – also als ich dieses Video gemacht habe – 30 Videos am Tag generieren. Aber wie gesagt, um überhaupt loslegen zu können, braucht man die App.
Und die – Achtung, jetzt kommt’s – baut offensichtlich TikTok nach, beziehungsweise Instagram oder YouTube Shorts, die ja wiederum auch bei TikTok abkupfern. Aber ja, also man swipet da bei Sora auf jeden Fall durch den Ozean von unendlich vielen Videos.
Und das soll sich eben so anfühlen wie TikTok, was ja sowieso schon ziemlich gehirnschmelzend sein kann. Aber bei Sora sind das halt noch nicht mal Videos von und mit echten Menschen, sondern mit generierten Menschen oder generierten Dingen. Und das ist nicht lustig-seltsam wie, weiß ich nicht, Interdimensional Cable bei Rick & Morty, sondern das ist dystopisch seltsam – also richtig unangenehm.
Irgendwie ist es kurzzeitig unterhaltsam, weil es so neu ist, aber es fühlt sich dann auch sofort ganz, ganz falsch an. Irgendwie einsam. Man ist da so im ewigen Fluss der KI-Suppe des AI-Slops. Also für mich zumindest fühlt es sich ganz komisch und falsch an, da so durchzuswipen.
Ja, und warum macht denn OpenAI das überhaupt? Die wahrscheinliche Antwort darauf ist halt noch unangenehmer: OpenAI weiß nicht, wie es anders mit dem Zeugs Geld verdienen soll, als eben das zu machen, was alle Social-Media-Betreiber machen – nämlich Werbung zu verkaufen.
Sie fixen uns also an mit kostenlosen KI-Generierungen – also von uns selbst. Sie kriegen uns mit unserer Eitelkeit, unserem Ego. Und ja, da bin ich mir ziemlich sicher: Sobald das genug Leute nutzen, werden sie anfangen, Werbung zu verkaufen und anzuzeigen.
Das ist jetzt erst mal kein so schlimmer oder unerhörter Vorgang, aber das zeigt, finde ich, dass KI-Firmen gerade wirklich ziemlich in der Sackgasse stecken. Denn sie wissen nicht, wie sie aus den ganzen Investitionen – also KI-Rechenzentren unvorstellbarer Dimensionen, Millionen von Grafikkarten – wieder Geld machen können.
Und wenn ich mir die Weltwirtschaft gerade so angucke, klammert die sich an die Hoffnung, dass KI die Produktivität auf der ganzen Welt immens steigern wird. Sonst wären die Aktienkurse ja alle nicht so extrem aufgeblasen.
Und da kommt dann am Ende einfach nur das einzige Geschäftsmodell heraus, das alle im Internet machen und das Profit verspricht – also massenweise User an sich binden und denen Werbung reinzudrücken.
Und dafür diese grotesk riesigen Investitionen und Rechenzentren? Also ja, mal abwarten, wie das so weitergeht.
Also wäre Sora gut genug für den professionellen Einsatz für Film- und Videoproduktion, dann könnte man ja damit Geld verdienen. Aber das ist es leider zurzeit nicht, denn die Ergebnisse haben einen ziemlich großen Zufallsfaktor und sehen auch oft ganz schön schlecht aus.
Ja, vor allem kann Sora 2, Stand jetzt, nicht gut einen kohärenten Look über mehrere Szenen aufrechterhalten, was man ja für professionellen Einsatz bräuchte. Also ganz stumpf, dass zum Beispiel die zweite Szene den genau gleichen Look hat wie die erste Szene – sonst kann man ja nichts zusammensetzen. Und das ist bei Sora 2 ziemlich Glückssache.
Ja, und das ist auch in der Pro-Version so, die ziemlich teuer ist. Die kostet nämlich entweder 200 Dollar im Monat im Rahmen des ChatGPT-Pro-Abos oder einzeln über API abgerechnet 50 Cent pro Sekunde bei der höchsten Auflösung von 1792 × 1024 Pixeln, also 7,50 Dollar für ein 15‑Sekunden‑Video – das ist die maximale Länge.
Bei dem von mir getesteten kostenlosen normalen Sora liegt die Auflösung bei 1280 × 704 Pixeln. Da sind die Videos alle immer 10 Sekunden lang.
Ja, halten wir fest: Sora 2 kann recht beeindruckende Dinge. Das reicht aber noch lange nicht, um wirklich menschgemachte Videos oder Filme zu ersetzen.
Was aber wirklich interessant ist: dass OpenAI das offenbar glaubt – dass ihre KI-generierten Inhalte ausreichend gut sind, dass Leute freiwillig durch Sora swipen wollen statt durch TikTok, Insta oder YouTube.
Ich bin ja auch so ein Bio-Snob, der denkt, sein Geschmack ist noch nicht so verkümmert, dass er sich jeden Tag so KI-Slop angucken will. Ich glaube aber, dass es den meisten Menschen so geht.
Also ich muss schon zugeben, dass Sora ein witziges Ding ist, was wirklich ein paar Tage Spaß macht – vor allem, wenn man Freunde oder Kollegen hat, die einem ihre Cameos freigeben, um sich dann gemeinsam in Videos einbauen zu können. Das ist schon lustig.
Aber mal gucken, wie lange das interessant bleibt. Ich glaube nämlich: nicht so lange. Und es ist natürlich auch ein riesiger Haufen an Geld und Energie, der dann dafür verwendet wird, dass ich ein bisschen in Cola schwimmen kann und dann jemand einen Minzbonbon reinwirft. Tschüss.
c't 3003 [1] ist der YouTube-Channel von c't. Die Videos auf c’t 3003 sind eigenständige Inhalte und unabhängig von den Artikeln im c’t Magazin. Die Redakteure Jan-Keno Janssen, Lukas Rumpler, Sahin Erengil und Pascal Schewe veröffentlichen jede Woche ein Video.
URL dieses Artikels:
https://www.heise.de/-10777838
Links in diesem Artikel:
[1] https://www.youtube.com/channel/UC1t9VFj-O6YUDPQxaVg-NkQ
[2] https://www.heise.de/ct
[3] mailto:jkj@ct.de
Copyright © 2025 Heise Medien
Die erste Hardware-Revision der Vision Pro ist da: Wir besprechen, was der M5-Chip und das (vermutlich) bequemere Kopfband wohl bringen.
Gemeinsam mit MacBook Pro und iPad Pro hat Apple die Vision Pro auf aktuellen Stand gebracht: Mit dem Wechsel vom M2 auf den neuen M5 überspringt das VR-Headset dabei gleich mehrere Chip-Generationen. Das sorgt nicht nur für ein ordentliches Plus an Rechenleistung, sondern auch für eine aktuelle Grafikarchitektur und mehr Effizienz. All das bringt Verbesserungen bei Rendering, Bildwiederholrate und nicht zuletzt Akkulaufzeit, wie Apple verspricht. Ein neues Kopfband soll obendrein den Tragekomfort erhöhen.
In Episode 55 diskutieren Leo Becker und Mark Zimmermann, Leiter für mobile Lösungen bei EnBW, wie weitreichend diese Hardware-Änderungen letztlich wohl sind – von der normalen App-Nutzung bis zum Enterprise-Einsatz. Wir sprechen außerdem über Apples mysteriöse Strategie rund um Mixed-Reality-Brillen und das fehlende App-Ökosystem für visionOS. Dabei streifen wir auch angekündigte Immersive-Inhalte wie Live-Sport.
1984, 2007, 2024 – Apples Vision Pro tritt in riesige Fußstapfen: Mac und iPhone [2] haben nicht nur Geschichte geschrieben, sondern auch grundlegend verändert, wie wir Computer verwenden.
Mac & i begleitet die Vision Pro sowie die Chancen und Hürden von "räumlichem Computing" mit einem eigenen Podcast: TNBT – The Next (Big) Thing [3] beleuchtet die jüngsten Entwicklungen rund um die neue Plattform mitsamt den Auswirkungen auf IT-Branche und Gesellschaft.
TNBT ist in allen großen Podcast-Verzeichnissen zu finden und lässt sich mit Apple Podcasts [4] und Spotify [5] hören oder als RSS-Feed [6] in der Podcast-App der Wahl beziehen. Wir freuen uns unter podcast@mac-and-i.de [7] auf Fragen, Anregungen und Kritik.
URL dieses Artikels:
https://www.heise.de/-10778176
Links in diesem Artikel:
[1] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[2] https://www.heise.de/thema/iPhone
[3] https://tnbt.podigee.io
[4] https://podcasts.apple.com/de/podcast/tnbt-ein-podcast-von-mac-i/id1691058408
[5] https://open.spotify.com/show/2JtuzB6ib8NP3KjQkwRmxN
[6] https://tnbt.podigee.io/feed/mp3
[7] mailto:podcast@mac-and-i.de
[8] https://www.heise.de/mac-and-i
[9] mailto:lbe@heise.de
Copyright © 2025 Heise Medien
(Bild: Jay Hirano / Shutterstock)
Die Autorennen können Fans in den USA künftig nur noch mit Apple-TV-Abo sehen. Apples iPhone-Apps sollen für den Motorsport trommeln.
Formel-1-Rennen laufen in den USA künftig auf Apple TV: Eine auf fünf Jahre angelegte Partnerschaft sichert dem IT-Konzern die Exklusivrechte für die Übertragung auf dem Heimatmarkt. Neben den Grand Prix streamt Apple auch das freie Training, Qualifying sowie die Sprintrennen als Bestandteil des bestehenden Apple-TV-Abonnements, wie das Unternehmen mitteilte [1]. Einzelne Inhalte sollen kostenlos verfügbar sein, dürften aber per Geosperre auf die USA beschränkt bleiben.
Konkrete technische Details wollte Apple noch nicht nennen. F1 TV Premium, das unter anderem Multiview bietet, besteht demnach weiter, aber nur noch im Rahmen eines Apple-TV-Abos.
Was sich Apple die Übertragungsrechte kosten lässt, bleibt unter Verschluss. In der Branche wird gemunkelt, das Unternehmen zahle dafür rund 140 Millionen US-Dollar pro Jahr und damit deutlich mehr als der bisherige Formel-1-Partner ESPN. Obendrein will Apple in hauseigenen Apps für die Formel 1 trommeln, darunter in Apple Maps respektive Karten und Apple Music.
Zu einer späteren globalen Erweiterung des Formel-1-Streamings schweigt Apple sich aus. Klar ist allerdings, dass der Konzern bei Sportübertragungen die volle Kontrolle will, wie es bei der Fußballliga MLS bereits der Fall ist. Dazu gehört auch Option, möglichst weltweit zu streamen. "Wir wollen eine Sportart von Anfang bis Ende in eigener Hand haben", betonte Apples Dienstechef Eddy Cue jüngst in einem Interview von The Town [2].
Apples schon länger gehegtes Interesse an der Formel 1 ist kein Geheimnis: Mit dem Spielfilm "F1" landete das Unternehmen jüngst einen Kinohit [3]. Ab Dezember ist der Streifen dann beim hauseigenen Streaming-Dienst Apple TV+ zu sehen, der frisch in "Apple TV" umbenannt wurde.
Eigene iPhone-Apps nutzte der Konzern hier bereits für Cross-Promotion: In Apple Maps gibt es etwa Werbeplakate für F1 [4], mit solchen Aktionen ist nun vermehrt zu rechnen. Mit einer ungefragten Werbe-Push-Nachricht zum Kauf von Kinotickets des für Apple Pay vorinstallierten Wallets sorgte das Unternehmen jüngst für Diskussionen unter Nutzern [5].
URL dieses Artikels:
https://www.heise.de/-10778082
Links in diesem Artikel:
[1] https://www.apple.com/newsroom/2025/10/apple-is-the-exclusive-new-broadcast-partner-for-formula-1-in-the-us/
[2] https://podcasts.apple.com/us/podcast/apples-true-intentions-in-hollywood-with-top-exec-eddy-cue/id1612131897?i=1000731869379
[3] https://www.heise.de/news/Apples-F1-Film-nimmt-halbe-Milliarde-an-der-Kinokasse-ein-10501744.html
[4] https://www.heise.de/news/Neu-in-Apple-Maps-Formel-1-in-Monaco-mit-Werbeflaechen-10383360.html
[5] https://www.heise.de/news/Unerwuenschte-Apple-Werbung-Push-Mitteilung-veraergert-iPhone-Nutzer-in-den-USA-10459398.html
[6] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[7] https://www.heise.de/mac-and-i
[8] mailto:lbe@heise.de
Copyright © 2025 Heise Medien
Magic Keyboard für iPad Air.
(Bild: Apple)
Es muss nicht immer ein iPad Pro sein: Wer ein Air besitzt, kann es nun mit einer optisch neuen Tastatur- und Trackpad-Kombi ausrüsten.
Apple hat in dieser Woche eine nette Kleinigkeit für Besitzer einer bestimmten iPad-Modellreihe in sein Programm genommen: Das Magic Keyboard für das iPad Air ist künftig nicht mehr nur in weißem Farbanstrich zu haben, sondern auch in Schwarz. Das letzte iPad Air mit M3-Chip [1] war von Apple bereits im März 2025 in insgesamt vier Farben – Spacegrau, Blau, Violett und "Polarstern", ein Goldton – präsentiert worden, bei der Original-Tastatur samt Trackpad gab es jedoch nur eine.
Diese Unschönheit hat Apple nun beseitigt, wie ein Blick in den Apple Online Store offenbart. Sowohl die Variante mit 11 Zoll [2] als auch jene mit 13 Zoll [3] des Magic Keyboard für das iPad Air kommt nun in zwei Farben. Apple nennt sie schlicht "Weiß" und "Schwarz". An der heftigen Bepreisung ändert sich leider nichts: Die M3-Variante der Tastaturhülle kostet für das 11-Zoll-Modell 329 Euro, für die 13-Zoll-Variante werden gar 349 Euro fällig. Das ist im übrigen signifikant mehr, als man für die US-Version – wenn auch ohne Sales Tax, also Umsatzsteuer – zahlt: Die 11-Zoll-Variante kostet dort 269 US-Dollar, die 13-Zoll-Version 319 Dollar.
Die hohe Bepreisung für das Magic Keyboard für das iPad hat Apple leider immer so verfolgt. Angesichts der Kosten für das Tablet selbst wirkt dies überzogen. So kann man das iPad Air M3 mit – allerdings mageren – 128 GByte beim Hersteller bereits für 649 Euro erwerben (11 Zoll), würde dann also nur für Tastatur und Trackpad nochmals über die Hälfte hinzuzahlen müssen. Die Preise halten sich zudem recht lange. Wer sein Magic Keyboard erst später erwirbt – also für bereits ältere Modelle – bekommt auch im Handel nicht viel Rabatt.
Momentan verkauft Apple drei Varianten seiner Tastatur samt Trackpad [4]. Alle heißen Magic Keyboard. Für das iPad Pro (M4 und M5) geht es für die 11-Zoll-Variante bei 349 EUro los. Nutzer des Einsteiger-iPads werden auch nicht geschont: Das Magic Keyboard Folio, das auch Tastatur und Trackpad kombiniert, aber einen ausklappbaren Standfuß benötigt, um nicht umzufallen, steht mit 299 Euro in der Liste.
Das Folio ist zum iPad der 10. und 11. Generation (letztere nennt Apple auch "iPad A16") kompatibel. Apple verkauft das iPad 11 ab 379 Euro mit 128 GByte, auch hier ist der Aufpreis für Tastatur samt Trackpad also mächtig.
URL dieses Artikels:
https://www.heise.de/-10771368
Links in diesem Artikel:
[1] https://www.heise.de/tests/iPad-Air-M3-im-Test-Das-kann-Apples-neues-Mittelklasse-Tablet-10310432.html
[2] https://www.apple.com/de/shop/product/MDFV4D/A/magic-keyboard-f%C3%BCr-das-11-ipad-air-m3-deutsch?afid=p239%7C121977&cid=aos-de-aff-ir
[3] https://www.apple.com/de/shop/product/MDFW4D/A/magic-keyboard-f%C3%BCr-das-13-ipad-air-m3-deutsch?afid=p239%7C121977&cid=aos-de-aff-ir
[4] https://www.apple.com/de/shop/select-ipad-keyboards
[5] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[6] https://www.heise.de/mac-and-i
[7] mailto:bsc@heise.de
Copyright © 2025 Heise Medien
(Bild: Yurchanka Siarhei / Shutterstock.com)
Die Open-Source-Plattform Airbyte erscheint in Version 2.0 mit deutlich höherer Sync-Geschwindigkeit, Data Activation und einem hybriden Enterprise-Ansatz.
Airbyte hat Version 2.0 seiner freien Datenintegrationsplattform veröffentlicht und verspricht damit eine deutliche Beschleunigung der Datenverarbeitung. Nach Angaben der Entwickler synchronisiert die neue Version Daten im Durchschnitt vier- bis sechsmal schneller als bisher, während sie gleichzeitig den Ressourcenverbrauch optimiert. Die Funktion "Faster Sync Speed" ist nun allgemein verfügbar und soll ELT-Prozesse (Extract, Load, Transform) deutlich effizienter gestalten.
Gut ein Jahr nach der Veröffentlichung von Airbyte 1.0 [1] überarbeitet das neue Major Release die Architektur der Open-Source Plattform. Neben der Performance-Steigerung führt Version 2.0 zwei zentrale neue Funktionen ein: Data Activation und Enterprise Flex. Data Activation ermöglicht es Unternehmen, aufbereitete Daten aus ihrem Data Warehouse direkt in operative Systeme wie CRM-Plattformen, Marketing-Tools oder Support-Systeme zurückzuspielen. Damit lassen sich Business-Entscheidungen nicht mehr nur auf Basis von Dashboards und Reports treffen, sondern direkt in den Arbeitstools umsetzen, die Teams täglich nutzen.
Enterprise Flex richtet sich speziell an Unternehmen mit strengen Compliance- und Data-Sovereignty-Anforderungen. Die hybride Architektur kombiniert eine vollständig verwaltete Cloud-Control-Plane mit separaten Data Planes, die Nutzer in ihrer eigenen Infrastruktur betreiben können. Das ist besonders für Organisationen relevant, die aus regulatorischen Gründen – etwa Datenschutz mit der DSGVO – die vollständige Kontrolle über Datenbewegungen behalten müssen, und trotzdem Managed Services einsetzen wollen. Bestehende Airbyte-Cloud-Kunden können auf Enterprise Flex umsteigen.
Der Connector Builder, mit dem Entwickler eigene Konnektoren für APIs und Datenquellen erstellen können, wurde grundlegend überarbeitet. Die Benutzeroberfläche orientiert sich nun stärker an der zugrundeliegenden YAML-Spezifikation, was den Wechsel zwischen UI- und YAML-Modus intuitiver gestalten soll. Nahezu alle Funktionen, die bisher nur im YAML-Modus verfügbar waren, lassen sich nun über die grafische Oberfläche nutzen. Bestehende Custom Connectors migrieren automatisch zur neuen Oberfläche, ohne dass Entwickler eingreifen müssen.
Eine wesentliche Neuerung im Connector Builder ist die vollständige Unterstützung von OAuth-2.0-Flows, einschließlich asynchroner Streams. Jeder Stream lässt sich jetzt mit einer eigenen API-Endpoint-URL und einer individuellen Authentifizierungsmethode konfigurieren – die bisherige globale Konfiguration für Base-URL und Authentifizierung entfällt. Das neue Feld API Endpoint URL ersetzt die vorherigen separaten Felder für URL-Pfad und API-Base-URL. Zudem hat Airbyte die Panels für Parent Streams und Parameterized Requests im neuen Partition Router zusammengeführt. Ein zusätzliches Advanced-Panel macht Funktionen wie Dateitransfers zugänglich, die zuvor nur im YAML-Modus nutzbar waren.
Für Administratoren selbst gehosteter Airbyte-Installationen bringt Version 2.0 eine wichtige Änderung: Es ist die letzte Version, die Helm Chart V1 unterstützt. Ab Version 2.1 wird also Helm Chart V2 zur Pflicht. Neue Deployments sollten daher direkt auf Helm Chart V2 setzen; bestehende Installationen sollten zeitnah migrieren, um künftige Updates nicht zu blockieren. Die Airbyte-Dokumentation bietet separate Migrations-Guides für Core [2] und Self-Managed Enterprise [3]. Wer Airbyte mit dem Tool abctl einrichtet, muss vor dem Upgrade auf Version 2.0 zunächst auf abctl Version 0.30.2 aktualisieren.
Die Benutzeroberfläche für Organisationen und Workspaces haben die Entwickler ebenfalls neu strukturiert. Die Navigationsleiste trennt nun klar zwischen Organisations- und Workspace-Ebene, die allgemeinen Einstellungen haben sie in separate Bereiche für Organisation und Workspace aufgeteilt. Nutzer-Einstellungen und Anwendungs-Tokens finden sich ab sofort unter dem Benutzernamen im Menü. Organisationen erhalten eine neue Startseite, die alle Workspaces sowie laufende, erfolgreiche und fehlgeschlagene Syncs übergreifend darstellt – eine Art Dashboard-Ansicht für alle zugänglichen Workspaces. Darüber hinaus liefert Version 2.0 mit dem Helm Chart nun standardmäßig Ingress-Konfigurationen aus, was die Einrichtung neuer Deployments vereinfachen soll.
Airbyte 2.0 steht ab sofort sowohl als selbst gehostete Open-Source-Version als auch über Airbyte Cloud zur Verfügung. Die vollständigen Release Notes mit allen technischen Details finden sich im GitHub-Repository [4] des Projekts.
URL dieses Artikels:
https://www.heise.de/-10777748
Links in diesem Artikel:
[1] https://www.heise.de/news/Flexiblere-Datenintegration-mit-der-Open-Source-Plattform-Airbyte-1-0-9953092.html
[2] https://docs.airbyte.com/platform/deploying-airbyte/chart-v2-community
[3] https://docs.airbyte.com/platform/enterprise-setup/chart-v2-enterprise
[4] https://github.com/airbytehq/airbyte/releases/tag/v2.0.0
[5] https://www.heise.de/ix
[6] mailto:fo@heise.de
Copyright © 2025 Heise Medien
(Bild: SWKStock/Shutterstock)
Im Interview spricht Erik Wilde über offene Schnittstellen und die richtige Balance zwischen KI und traditionellen Ansätzen.
Erik Wilde hat jahrelange Erfahrung im API-Bereich. Als Botschafter bei der OpenAPI-Initiative setzt er sich für den Einsatz offener Standards und Best Practices in API-Design und -Management ein. Auf YouTube betreibt er den Channel Getting APIs to Work [1], der sich an IT-Experten, Entwicklerinnen und Produktmanager richtet. Außerdem hat Wilde zahlreiche Artikel und Bücher geschrieben, und er spricht regelmäßig auf Fachkonferenzen.
iX: Schnittstellen sind ein absolutes Grundkonzept der Softwarearchitektur; man entwirft, implementiert und überarbeitet sie ständig für die Anwendungsprogrammierung. Wann beginnt man, eine Schnittstelle als API zu bezeichnen? Die Semantik dieses Wortes geht über die reine Abkürzung hinaus.
Erik Wilde: Man bezeichnet eine Schnittstelle als API, sobald sie über ihren unmittelbaren Implementierungskontext hinaus von anderen genutzt werden soll. Eine Schnittstelle ist nur eine technische Grenze, eine API hingegen ein veröffentlichter Vertrag. Das bedeutet, dass sie absichtlich offengelegt, dokumentiert und stabil genug ist, damit andere – innerhalb oder außerhalb des Entwicklerteams oder Systems – sich darauf verlassen können. Es ist vor allem der Aspekt der Absicht und des breiteren Publikums, der eine API auszeichnet.
iX: Sind die Ansätze, die eine API für Menschen nützlich und zugänglich machen, nicht dieselben wie diejenigen, die sie für KI, also LLM-basierte Automatisierung, zugänglich machen?
Wilde: Sowohl Menschen als auch Maschinen benötigen zugängliche APIs, jedoch auf unterschiedliche Weise. Für Menschen funktioniert die Dokumentation am besten, wenn APIs einheitliche Muster aufweisen, da das nicht nur das Verständnis erleichtert, sondern auch die Wiederverwendung von Tools und Verfahren für verschiedene APIs ermöglicht. Menschen können auch einen breiteren Kontext heranziehen, ohne verwirrt zu werden. Maschinen hingegen benötigen eine klare, in sich geschlossene Beschreibung jeder API. Selbst wenn die Kontextfenster größer werden, ist mehr Kontext nicht immer hilfreich – KI hat oft Schwierigkeiten, größere Kontexte effektiv zu nutzen.
Menschen schätzen APIs, die offen, wiederverwendbar und flexibel anpassbar sind, während Maschinen mehr von einer geführten Abstraktionsebene profitieren, die den Schwerpunkt darauf legt, was erreicht werden kann und wie dies zu tun ist, anstatt jede mögliche Operation offenzulegen.
iX: Sie haben sich in der Vergangenheit in Ihrem YouTube-Channel "Getting APIs to Work" mit dem ökologischen Fußabdruck von APIs befasst. Wenn man über Softwareeffizienz und CO2-Bewusstsein nachdenkt, passt das dann gut zu dem, was derzeit als Agentic AI beworben wird?
Wilde: Der ökologische Fußabdruck von Agentic AI ist erheblich, da die explorative Nutzung durch Agenten oft zu mehr Orchestrierung, mehr Rechenzyklen und einem höheren Energieverbrauch führt. Das scheint im Widerspruch zu den Bestrebungen nach Effizienz und CO2-Bewusstsein bei Software und APIs zu stehen.
Der Weg nach vorne besteht darin, sie als komplementär zu betrachten: Agenten können kreative Lösungen erforschen und neue Vorgehensweisen aufdecken, aber sobald ein vielversprechender Ansatz gefunden ist, sollte er in einen deterministischen, wiederholbaren Workflow kodifiziert werden, der energieeffizient, skalierbar und überprüfbar ist. Das bringt die Vorteile der Kreativität der KI mit der Notwendigkeit eines nachhaltigen und konformen Betriebs in Einklang, wobei so viel KI wie nötig, aber so wenig wie möglich eingesetzt wird.
Durch das Entwickeln von Architekturen, die einen reibungslosen und bewussten Übergang vom Experimentieren zur effizienten Ausführung ermöglichen, können wir sowohl die Unsicherheit hinsichtlich der Unvorhersehbarkeit der KI als auch die Notwendigkeit angehen, ihren erheblichen Energieverbrauch zu kontrollieren.
iX: In welcher Beziehung steht MCP zu OpenAPI? Verfolgen beide nicht dasselbe Ziel: die Standardisierung der Beschreibung von APIs und deren einfache Zugänglichkeit? Oder ähnelt es eher JSON:API, also der Standardisierung der APIs selbst?
Wilde: Bei MCP, OpenAPI und JSON:API geht es darum, Funktionen verfügbar zu machen, aber sie richten sich an unterschiedliche Nutzer. MCP wurde speziell für LLMs entwickelt und stellt ihnen Tools und Ressourcen zur Verfügung, die auf ihre Arbeitsweise zugeschnitten sind. OpenAPI hingegen richtet sich an Entwickler, die HTTP-APIs nutzen möchten, und konzentriert sich hauptsächlich darauf, Endpunkte zu strukturieren und diesen Schemata hinzuzufügen.
JSON:API fügt eine weitere Ebene hinzu, indem es standardisiert, wie die Schemata strukturiert sind und welche gemeinsamen Konzepte eine API offenlegen sollte, sodass Entwickler von bereits bekannten Konventionen profitieren und Tools wiederverwenden können, die diese unterstützen.
Es ist zwar möglich, MCP-Server automatisch aus OpenAPI zu generieren, aber das führt in der Regel nicht zu den besten Ergebnissen: Bei komplexeren APIs reicht eine Liste von Endpunkten nicht aus, da LLMs das implizite Verständnis fehlt, das Menschen beim Schreiben von Code mitbringen. Das ist der grundlegende Unterschied: OpenAPI und JSON:API gehen davon aus, dass ein menschlicher Developer die Lücken füllen kann, während MCP eine ausreichend aufgabenorientierte Struktur bereitstellen muss, damit ein LLM ohne diese menschliche Intelligenz erfolgreich sein kann.
iX: Machen LLMs bestimmte Ansätze zur Automatisierung überflüssig? Oder sind sie nur ein weiterer Anwendungsfall? Aufgrund der Nicht-Determiniertheit können sie eine zuverlässige Systemintegration vermutlich nicht wirklich ersetzen.
Wilde: Bei der Automatisierung geht es in der Regel um Zuverlässigkeit, Wiederholbarkeit und Effizienz, was LLMs nicht bieten. Sie sind nicht deterministisch, nicht zuverlässig reproduzierbar und nicht besonders effizient. Was sie jedoch bieten, ist eine neue Art von Kreativität: die Fähigkeit, Lücken zu schließen, Lösungen auszuprobieren und chaotischere Teile der Automatisierung zu bewältigen, die mit traditionellen Ansätzen nicht möglich sind.
Am besten betrachtet man sie als ein weiteres Werkzeug im Werkzeugkasten – eines, das wir selektiv einsetzen können, zum Erkunden oder für bestimmte Teile eines Prozesses, aber nicht für die Teile, die strenge Garantien erfordern. Architekturen, die LLM-gesteuerte Erkundung mit kodifizierten, deterministischen Workflows kombinieren, können das Beste aus beiden Welten vereinen: KI, wo Kreativität einen Mehrwert schafft, und traditionelle Automatisierung, wo Zuverlässigkeit unerlässlich ist.
Das Interview führte Richard Wallintin von WPS – Workplace Solutions.
URL dieses Artikels:
https://www.heise.de/-10773518
Links in diesem Artikel:
[1] https://www.youtube.com/@ErikWilde/featured
[2] https://conferences.isaqb.org/software-architecture-gathering/
[3] https://conferences.isaqb.org/software-architecture-gathering/program-2025/
[4] https://conferences.isaqb.org/software-architecture-gathering/session/your-api-is-not-ready-for-ai-yet-a-lifecycle-based-readiness-guide/
[5] mailto:rme@ix.de
Copyright © 2025 Heise Medien
(Bild: heise online)
Im agilen Podcast mit Ina Einemann und Sebastian Bauer spricht Simon Flossmann darüber, wie aktives Lernen und Interaktion nachhaltiges Wissen fördern.
Scrum Master oder Agile Coaches stehen immer wieder vor der Herausforderung, Wissen gut zu vermitteln, sei es in Workshops, Trainings oder kurzen Impulsen im Alltag. Das klassische Modell "eine Person redet, die anderen hören zu" ist dabei leider meist das ineffizienteste. Inhalte bleiben nicht hängen und nachhaltige Lernprozesse bleiben aus.
Genau hier setzt die Methode "Training from the Back of the Room" an. Statt Frontalunterricht setzt sie auf aktives Lernen, Interaktion und eigenständiges Denken, basierend auf den sogenannten vier Cs, die für Connections, Concepts, Concrete Practice und Conclusions stehen.
Ina Einemann und Sebastian Bauer begrüßen in dieser Folge ihres agilen Podcasts Simon Flossmann [1]. Er hat unzählige Trainings in der agilen Welt gegeben und kennt diese Methode in- und auswendig. In dieser Folge teilt er seine Erfahrungen und Tipps für nachhaltiges Lernen und zeigt, wie Facilitator, Trainer oder Coaches bessere Lernräume schaffen können, damit die Teilnehmenden wirklich etwas mitnehmen können.
URL dieses Artikels:
https://www.heise.de/-10776099
Links in diesem Artikel:
[1] https://www.linkedin.com/in/simonflossmann
[2] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[3] http://dpunkt.de/produkt/training-from-the-back-of-the-room/
[4] https://www.scrum.org/simon-flossmann
[5] https://alc.inside-agile.de/?wt_mc=intern.academy.dpunkt.konf_dpunkt_ia_alc.empfehlung-ho.link.link
[6] mailto:mdo@ix.de
Copyright © 2025 Heise Medien
Verbundene WLAN-Geräte verraten dem Router auch etwas über die Umgebung. Variiert die Stärke der Funksignale, kann man damit sogar Passanten identifizieren.
Eine Person zwischen einem WLAN-Gerät und dem lokalen Router stört die Übertragung. Mit dem Übertragungsstandard 802.11ac senden angemeldete WLAN-Geräte in regelmäßigen Abständen eine unverschlüsselte Beamforming Feedback Information (BFI) an den Router, eine komprimierte Darstellung der aktuellen Signaleigenschaften. Dieses Feedback soll dabei helfen, die Bandbreite zwischen beiden Geräten zu optimieren.
Auf diese Weise sammelt der Router allerdings von jedem verbundenen Smartphone oder Tablet in der Umgebung Informationen über den jeweiligen Signalweg. Wie sich die Radiowellen ausbreiten, sagt aber auch immer etwas über die räumliche Umgebung und über die Personen im Raum aus, so ähnlich wie ein Foto etwas über die Ausbreitung von Lichtwellen aus einem bestimmten Blickwinkel aussagt, erläutert Thorsten Strufe Professor für praktische IT-Sicherheit am Karlsruher Institut für Technologie (KIT). Mit den BFIs verschiedener Geräte aus verschiedenen Richtungen erhält der Router zahlreiche Informationen über sein Umfeld aus verschiedenen Blickwinkeln.
Bereits seit einigen Jahren versuchen Forscher die Analyse von Kanalzustandsinformationen (Channel State Information, CSI) auszureizen [9] [9]. Die zwischen Router und WLAN-Geräten ausgetauschten CSI dienen als Feedback zur Übertragungsqualität. Um die zu messen, senden die verbundenen Geräte sogenannte Long Training Fields (LTFs) in der Paketpräambel jeder Übertragung. Der Empfänger kann dann das erwartete Signal (die vordefinierten LTFs) mit dem empfangenen vergleichen und Abweichungen zur Fehlerkorrektur nutzen.
URL dieses Artikels:
https://www.heise.de/-10773306
Links in diesem Artikel:
[1] https://www.heise.de/hintergrund/Security-Wie-WLAN-Geraete-Passanten-ausspionieren-10773306.html
[2] https://www.heise.de/hintergrund/Was-Wi-Fi-8-bringt-Neue-Funktionen-fuer-stabileres-WLAN-10543749.html
[3] https://www.heise.de/ratgeber/FAQ-Internetprotokoll-IPv6-10498571.html
[4] https://www.heise.de/tests/Powerline-WLAN-Basis-Devolo-Magic-2-WiFi-6-im-Test-10487357.html
[5] https://www.heise.de/hintergrund/So-funktioniert-das-Ultra-Ethernet-10477044.html
[6] https://www.heise.de/news/AVM-Fritzbox-Moeglicher-Serienfehler-bei-mehreren-Modellen-10438439.html
[7] https://www.heise.de/tests/OpenWrt-Router-BananaPi-Router-R3-im-Test-10397102.html
[8] https://www.heise.de/tests/Guenstige-DSL-und-TV-Kabel-Anschluesse-im-Vergleich-10392531.html
[9] https://www.heise.de/news/Biometrie-per-WLAN-Signalstoerungen-erlauben-Personenerkennung-und-Ueberwachung-10515620.html
Copyright © 2025 Heise Medien
(Bild: Bambulab.com)
Bambu Lab hebt mit dem P2S den 3D-Druck auf ein neues Niveau – mit neuem Extruder, KI-Fehlererkennung und adaptiver Kühlung für präzise Ergebnisse.
Wenn Bambu Lab ein neues Gerät ankündigt, schaut die Maker-Community inzwischen so gespannt hin wie Technikfans bei einem Apple-Event. Der P2S, Nachfolger des populären, aber nicht perfekten [1], P1S, wurde in den sozialen Kanälen entsprechend gefeiert und die Präsentation war strategisch getaktet mit Teasern und einem festen Enthüllungstermin – Dienstag, der 14. Oktober. Der chinesische Hersteller hat zahlreiche Detailverbesserungen in ein vertrautes, aber überarbeitetes Gehäuse gepackt – eine gezielte Modernisierung für anspruchsvolle Bastler und kleine Fertigungsbetriebe.
Das Herzstück ist der neue PMSM-Servo-Extruder. Statt klassischer Stepper-Motoren nutzt Bambu Lab eine geschlossene Regelschleife, die den Materialfluss 20.000-mal pro Sekunde überwacht. Bis zu 8,5 kg Extrusionskraft – rund 70 Prozent mehr als beim Vorgänger – soll für stabile Linien auch bei hohen Geschwindigkeiten sorgen. Die Sensorik soll Abrieb oder Verstopfungen frühzeitig erkennen, was primär bei abrasiven Filamenten von Vorteil ist.
Das neue Luftmanagement wechselt zwischen Kalt- und Wärmemodus. Für PLA oder PETG wird Frischluft von außen zugeführt; für technische Kunststoffe hält ein Wärmespeichermodus rund 50 °C im Bauraum. Ein Aktivkohlefilter reduziert Geruch und Partikel – praktisch in geschlossenen Werkstätten. Das System reagiert adaptiv auf Geometrie und Material, um Fadenbildung und Warping zu vermeiden.
(Bild: Bambulab.com)
Mit einer KI-Fehlererkennungsfunktion soll der P2S typische Probleme wie "Spaghettidruck", verstopfte Düsen oder Luftdrucke automatisch erkennen. Eine integrierte Neural Processing Unit analysiert die 1080p-Kamerabilder und prüft vor Druckstart, ob Düse, Bett und Parameter passen. Das soll Fehldrucke und Materialverluste spürbar reduzieren.
(Bild: Bambulab.com)
Während viele Nutzer in Foren und frühen YouTube-Reviews [2] den P2S bereits als nahezu perfekten Allrounder loben [3], sind die Reaktionen nicht durchweg euphorisch. Positiv hervorgehoben werden vor allem die verbesserte Zuverlässigkeit und die spürbar ruhigere Extrusion – einige Maker berichten von konsistenteren Oberflächen bei hohen Geschwindigkeiten und deutlich weniger Nacharbeit. Kritik gibt es jedoch an Bambu Labs zunehmend geschlossenem System [4]: Anpassungen tiefer in der Firmware oder alternative Slicer-Profile sind nur eingeschränkt möglich, was in der Community für gemischte Gefühle sorgt. Auch der Ersatzteil- und Reparaturprozess wird teilweise als zu stark an den Hersteller gebunden kritisiert.
Zum Preis von 519 Euro [5] (749 Euro mit AMS 2 Pro [6] für Mehrfarben- und integrierte Filamenttrocknung) gelingt Bambu Lab erneut der Spagat zwischen Hobby und Pro-Niveau. Insgesamt demonstriert der P2S, wie weit der Desktop‑3D‑Druck inzwischen gereift ist – weg vom Bastelprojekt, hin zu kontrollierter Prozessstabilität und präziser Reproduzierbarkeit. Für die Maker‑Community bedeutet das schnellere, verlässlichere Drucke und eine klar erkennbare Annäherung an professionelle Fertigungsstandards.
URL dieses Artikels:
https://www.heise.de/-10771226
Links in diesem Artikel:
[1] https://www.heise.de/news/BambuLab-P1S-Gemischte-Gefuehle-und-jede-Menge-Muell-9334565.html
[2] https://www.youtube.com/watch?v=uq4YoTXWvVg
[3] https://www.youtube.com/watch?v=PVdxJm9LcAE
[4] https://www.heise.de/news/Bambu-Lab-Sicherheitsfeature-sperrt-Dritt-Slicer-aus-10248408.html
[5] https://eu.store.bambulab.com/products/p2s?from=home_page_3dprinter&id=654444275327889410
[6] https://eu.store.bambulab.com/products/p2s?sv1=affiliate&sv_campaign_id=103504
[7] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[8] mailto:mch@make-magazin.de
Copyright © 2025 Heise Medien
(Bild: LattePanda)
Das neue LattePanda IOTA kombiniert eine Intel-x86-CPU mit RP2040-Co-Prozessor – interessant für Maker.
LattePanda hat mit dem IOTA [1] ein neues Einplatinen-System vorgestellt. Das Board basiert auf dem x86 Intel-Prozessor N150 mit vier Kernen und bis zu 3,6 GHz Taktfrequenz. Es ist wahlweise mit 8 oder 16 GB LPDDR5-RAM und 64 oder 128 GB eMMC-Speicher erhältlich.
Die Ausstattung richtet sich an Anwender, die ein vollwertiges x86-System in kompakter Form benötigen. Neben drei USB-3.2-Gen2-Ports bietet das Board Gigabit-Ethernet, HDMI 2.1 mit 4K-Ausgabe, eDP-Schnittstelle, Audioanschluss, einen M.2-E-Key-Slot für Erweiterungen und einen microSD-Kartenleser. Für die Nutzung des RP2040 in Projekten stehen natürlich auch dessen GPIO-Pins zur Verfügung. Über optionale Erweiterungsplatinen kann der IOTA zudem um PoE-, LTE- oder UPS-Module ergänzt werden.
Der IOTA hat Abmessungen von 88 × 70 × 19 Millimeter. Die Energieversorgung erfolgt über USB-C mit Power Delivery (15 V) oder über einen separaten 4-Pin-Anschluss (10 bis 15 VDC). Das Board kann passiv oder aktiv gekühlt betrieben werden, je nach Leistungsbedarf. Durch die kompakte Bauform eignet es sich für den Einbau in Gehäuse, Steuerboxen oder mobile Geräte.
Zusätzlich zu dem Intel-Prozessor ist auf dem Board auch ein RP2040-Co-Prozessor integriert. Der Mikrocontroller arbeitet unabhängig vom Hauptprozessor und kann Sensoren, Motoren oder andere Aktoren direkt ansteuern. Für Maker und Entwickler ergibt sich daraus ein Vorteil: Echtzeitsteuerung und Anwendungslogik lassen sich auf derselben Platine trennen, ohne zusätzliche Mikrocontroller-Boards einsetzen zu müssen. So kann beispielsweise ein Steuerungssystem Messdaten lokal verarbeiten, während die x86-CPU Auswertungen übernimmt. Auch für Lehrzwecke oder Laborumgebungen bietet sich das Board an, da es klassische PC-Software mit typischer Elektronik-Peripherie verbindet.
Das System unterstützt Windows 10 und 11 sowie Ubuntu 22.04 und 24.04. Das heißt, man könnte einen Smarthome-Server direkt auf dem Board laufen lassen, eine lokale Datenanalyse betreiben oder Desktop-basierte Software nutzen.
Für den LattePanda IOTA steht auf der offiziellen Webseite die Dokumentation [2] und ein Quickstart-Guide bereit. Der Preis für die Ausführung mit 8 GB RAM und 64 GB eMMC liegt bei 129 US-Dollar und für die Version mit 16 GB RAM und 128 GB eMMC Version bei 175 US-Dollar. Beides jeweils ohne Windows-Lizenz. Wer mehr über den RP2040 wissen will, findet hier unseren Test zum Pi Pico W [3].
URL dieses Artikels:
https://www.heise.de/-10767169
Links in diesem Artikel:
[1] https://www.lattepanda.com/lattepanda-iota
[2] https://docs.lattepanda.com/content/iota_edition/specification/
[3] https://www.heise.de/tests/Pi-Pico-mit-WLAN-im-Test-7186692.html
[4] https://www.heise.de/make
[5] mailto:das@make-magazin.de
Copyright © 2025 Heise Medien
Gemeinsam forschen Anastasiya Tönjes und Mika Altmann an neuen Materialien.
(Bild: U Bremen Research Alliance)
Die U Bremen Research Alliance entwickelt 3D-gedruckte leichte Titanbauteile sowie umweltfreundliche Lacksysteme und smarte Reparaturkonzepte.
Mika Altmann sprüht vor Begeisterung für 3D-Druck: "Wir können mithilfe von Lasern Materialien entwickeln, die auf konventionellem Wege gar nicht erzeugbar sind. Wir können die Eigenschaften eines Bauteils bestimmen, seine Struktur, wie fest oder dehnbar er ist. Wir können aber auch kleinste Bereiche im Material anders gestalten." Die Potenziale des Verfahrens sieht Altmann noch längst nicht ausgeschöpft. Genau das treibt den Doktoranden am Leibniz-Institut für Werkstofforientierte Technologien an. Altmann arbeitet am Projekt "Technologien und Reparaturverfahren für nachhaltige Luftfahrt in Kreislaufwirtschaft" (TIRIKA).
Dabei geht es auch darum, Verfahren zu verbessern, mit dem 3D-gedruckte Titanbauteile wirtschaftlicher und ökologischer hergestellt werden können. Ein Bereich ist die Herstellung nicht sicherheitskritischer Verbindungselemente wie Brackets, die in vielen Bereichen eines Flugzeugs eingesetzt werden. Um die beim 3D-Druck entstehenden Poren der Bauteile zu schließen, werden diese bislang in einem komplizierten Verfahren einer Kombination aus Hitze, Druck und anschließender Abkühlung unterzogen. Das geschieht in einem Hochdruckzylinder bei Temperaturen bis zu 1.400 Grad Celsius bei 2.000 bar Druck unter Verwendung von Argon, einem Edelgas. Das Problem: "Das Verfahren ist energieintensiv und sündhaft teuer", so Altmann.
Das Team um Altmann variiert Temperaturbereiche und Zeiten, um Festigkeit, Härte und Dehnungsfähigkeit zu optimieren. "Den Hochdruckofen haben wir zum Beispiel mit zehn bis 15 Grad Celsius pro Minute aufgeheizt und mit bis zu 1.600 Grad Celsius pro Minute abgekühlt", erklärt der Forscher. Ziel ist, das Potenzial des schichtweise aufgebauten Materials zu maximieren, Grenzen auszuloten und Schwachstellen zu identifizieren. In zahlreichen Tests stellten die Wissenschaftler Proben her, analysierten deren Eigenschaften und verglichen die Ergebnisse eines Schutzgasofens mit denen des Hochdruckverfahrens. "Wir haben sehr vielversprechende Ergebnisse erzielt", betont Altmann.
Mit dem 3D-Druck beschäftigt sich auch das Fraunhofer-Institut für Fertigungstechnik und Angewandte Materialforschung IFAM. Ein Forsschungsziel liegt in der vereinfachten Entfernung von Stützstrukturen, die komplexe Bauteile während des Drucks stabilisieren. "Nach dem Druck müssen sie sehr aufwendig per Hand entfernt werden", erläutert Stefan Dieckhoff, Abteilungsleiter Adhäsions- und Grenzflächenforschung am IFAM. Wie der Informationsdienst Wissenschaft (IDW) berichtete [1], wurden so bis zu 15 Prozent festere Bauteile entwickelt. Zugleich braucht die Herstellung weniger Material, um die angestrebten Eigenschaften zu erreichen. Gewichtseinsparung bedeutet besonders im Bereich Luft- und Raumfahrtechnik weniger Treibstoff und geringere Kosten, sowohl im Betrieb als auch bei der Herstellung der Bauteile.
Das vom Bundesministerium für Wirtschaft und Energie mit rund 20 Millionen Euro geförderte Projekt TIRIKA vereint unter Leitung von Airbus Operations in Bremen etwa ein Dutzend Partner aus Wissenschaft und Wirtschaft. Diese erforschen Ansätze für nachhaltige Luftfahrt, darunter Recycling von Metallen und Kunststoffen, Alternativen zu Gefahrstoffen, digitalisierte Prozesse, umweltfreundlichere Reparaturmethoden und Maßnahmen zur Gewichtsreduktion.
"Der Reiz von TIRIKA ist die Themenvielfalt. Das habe ich in dieser Größe und Breite bei einem Luftfahrtforschungsprojekt noch nicht erlebt", sagt Dieckhoff, der seit 1992 am IFAM tätig ist. "TIRIKA ist ein Leuchtturmprojekt, in dem viele unterschiedliche Disziplinen im Verbund mit Unternehmen gemeinsam für mehr Nachhaltigkeit in der Luftfahrt forschen. Das ist schon etwas Besonderes", pflichtet ihm Anastasiya Tönjes bei. Sie leitet am Leibniz-Institut für Werkstofforientierte Technologien die Abteilung Leichtbauwerkstoffe. Für Tönjes ist das Projekt auch ein Beleg für die Stärke des Wissenschaftsstandortes Bremen.
URL dieses Artikels:
https://www.heise.de/-10752154
Links in diesem Artikel:
[1] https://idw-online.de/de/news859301
[2] https://www.heise.de/make
[3] mailto:usz@heise.de
Copyright © 2025 Heise Medien
(Bild: KI / heise medien)
Oft finden wir bei der Recherche auch Beifang in Form von kleinen Tools, neuer Hard- und Software sowie spannenden Themen. Hier eine kleine Auswahl.
Der beliebte Open-Source-Slicer OrcaSlicer ist in Version 2.3.1 erschienen [1] und bringt zahlreiche Detailverbesserungen sowie Fixes mit. Neben einem überarbeiteten Updater und optimierten Build-Prozessen wurden diverse neue Druckerprofile integriert, darunter Modelle von Flyingbear, Sovol (SV08 MAX, SV01) und Rolohaun. Auch bestehende Profile, etwa für den Anycubic Kobra oder Ender 3 V3 KE, erhielten Feintuning.
Für eine stabilere Druckqualität sorgen Verbesserungen beim Input Shaping und bei der G-Code-Verarbeitung, speziell bei Z-Achsen-Bewegungen. Zudem behebt die neue Version einen Bug, der bei bestimmten Prusa-Modellen falsche Druckereinstellungen auswählte, sowie einen Importfehler bei 3MF-Dateien aus älteren Alpha-Versionen. Neue Komfortfunktionen wie die Erinnerung an die Slider-Position im Einzel-Layer-Modus, überarbeitete Übersetzungen und ein Warnsystem für die "Infill Rotation"-Templates runden das Update ab.
Praktisch wird es in einem YouTube-Video von YouTuber Teaching Tech [2]: Stabile und doch schnell zu druckende Objekte können durch rotierbare Infills (per Listen auch für mehrere Abschnitte im Modell), Multiline-Infill und extra komplett gefüllten Zwischenlagen erzeugt werden.
Fuzzy-Skin erzeugt wie bisher auch künstlich angeraute Oberflächen auf den Drucken, sei es zu dekorativen Zwecken oder um die Griffigkeit zu erhöhen. Die kann entweder durch kleine Bewegungen des Druckkopfes und(!)/oder neu auch durch Variation der Flussrate geschehen. Neu ist auch, dass man die Stellen, wo dies geschehen soll, per Aufmalen mit der Maus steuern kann.
Das Optimieren des Input-Shapings wird mit neuen Druckvorlagen noch einfacher und schneller, und man kann nun auch Bereiche für Resonanzvermeidung angeben.
Für Multifarb-Drucke ist es jetzt möglich, Filamente komplett zu tauschen, ohne eine umständliche Auswahl mit der Maus machen zu müssen, ideal für Multi-Color-Objekte, die man nicht selbst gesliced hat.
Zum Download sollte man übrigens nur das offizielle Softfever-Github [4] oder neu die offizielle Website orcaslicer.com [5] nutzen! Alle anderen Adressen, die in einer Suche auftauchen, könnten potenzielle Phising-Fallen werden, auch wenn sie jetzt noch auf das offizielle Repository zeigen. Die Dokumentation ist wie gehabt auf dem GitHub-Wiki [6] zu finden.
Raspberry Pi hat eine neue Version seines Betriebssystems für die Raspberry-Pi-Boards [7] veröffentlicht. Die neue Version von Raspberry Pi OS aktualisiert das Basis-Betriebssystem von Debian 12 auf Debian 13 ("Trixie"). Es gibt ein neues Design mit neuen Symbolen und einem neuen Hintergrundbild sowie ein brandneues Kontrollzentrum zum Konfigurieren von Elementen wie Tastatur, Bildschirmen, Hinzufügen von Druckern usw. Die Release-Logs sind lang und im GitHub einzusehen. [8]
Am einfachsten ist die Installation auf eine Speicherkarte mit dem Raspberry Pi Imager [9], mit dem auch schon einige wichtige Einstellungen für das System (Netzwerk, ssh, etc.) direkt erledigt werden können.
Mit Blender 5.0 steht ein großer Versionssprung für die Open-Source-3D-Suite bevor. Neben massiven Leistungsverbesserungen bringt das Update zahlreiche Komfortfunktionen und eine runderneuerte Oberfläche. Die finale Veröffentlichung ist für den 11. November 2025 geplant, die Beta startete am 1. Oktober [10] (auch wenn sie sich als Alpha ausgibt), der Release Candidate am 5. November.
(Bild: Blender.org)
Das Releasedatum ist bisher nicht 100-prozentig fix, denn mit der aktuellen Beta-Version von Blender 5.0 könnten noch Fehler gemeldet werden, die das Release verzögern. Die aktuellen Release Notes [11] geben einiges an Lesestoff. Aufregend finde ich persönlich die weiteren Verbesserungen am Sequencer, der immer mehr zum Videoeditor wird und nun auch den Compositor besser einbindet.
Massive Geometrie & neue Limits: Die neue Version kann inzwischen mit großen Meshes umgehen – ideal für aufwendige 3D-Scans, High-Poly-Modelle und riesige Szenen. Dateien aus Blender 5.0 lassen sich allerdings nicht mehr in älteren Versionen (unter 4.5) öffnen, umgekehrt funktioniert das aber weiterhin.
Grease Pencil mit Motion Blur: Ein Highlight für 2D/3D-Hybride: Das Grease-Pencil-Tool bekommt erstmals Motion-Blur-Unterstützung beim Rendern. Animierte Zeichnungen sollen damit flüssiger und filmischer wirken.
Feinschliff an der Oberfläche: Blenders UI wird weiter poliert – mit verbessertem Drag-and-drop, klareren Outliner-Rückmeldungen, einheitlicheren Widgets und kleineren Layoutanpassungen. Auch der Video-Sequencer wurde überarbeitet: Neue Clips erscheinen jetzt direkt unter dem Mauszeiger statt irgendwo in der Timeline.
Work-in-Progress: Cycles, Geometry Nodes und mehr: Viele zentrale Bereiche, von den Geometry Nodes über Sculpting bis zum Compositing, sind noch in Arbeit. Spekuliert wird über Animation Layers und eine überarbeitete UV-Sync-Selection – lang ersehnte Features der Community.
Für Add-on-Entwickler und Studios heißt das: rechtzeitig testen [12]. Blender 5.0 könnte nicht nur größer, sondern auch wegweisend für die kommenden Jahre in der 3D-Open-Source-Welt werden.
URL dieses Artikels:
https://www.heise.de/-10733429
Links in diesem Artikel:
[1] https://github.com/SoftFever/OrcaSlicer/releases/tag/v2.3.1
[2] https://www.youtube.com/@TeachingTech
[3] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[4] https://github.com/SoftFever/OrcaSlicer/releases/tag/v2.3.1
[5] https://www.orcaslicer.com/
[6] https://github.com/SoftFever/OrcaSlicer/wiki
[7] https://www.heise.de/news/Raspberry-Pi-OS-wechselt-auf-Debian-Trixie-Basis-10722458.html
[8] https://downloads.raspberrypi.com/raspios_arm64/release_notes.txt
[9] https://www.raspberrypi.com/software/
[10] https://builder.blender.org/download/daily/
[11] https://developer.blender.org/docs/release_notes/5.0/
[12] https://builder.blender.org/download/daily/
[13] https://www.heise.de/make
[14] mailto:caw@make-magazin.de
Copyright © 2025 Heise Medien