
Oft sind es die unscheinbaren Details: ein Raum, der zu hell, zu kalt oder einfach zu leblos wirkt. Erst das richtige Licht verleiht ihm den gewünschten Charakter. Die beliebte Govee RGBIC Smart-Deckenlampe spielt dabei in einer eigenen Liga: Sie denkt mit, wechselt Stimmungen auf Zuruf und verwandelt nüchterne Räume in lebendige Szenen. Von neutralem Arbeitslicht bis zum sanften Farbverlauf am Abend – diese Lampe reagiert nicht nur, sie inszeniert. Kein Zufall also, dass sie sich im letzten Monat über 2.000-mal verkauft hat. Aktuell ist sie bei Amazon als befristetes Angebot zum Tiefstpreis erhältlich.
Die 24-Watt-Leuchte kombiniert RGBWW-Hauptlicht und eine RGBIC-Hintergrundbeleuchtung. Das sorgt für intensive Farben und stufenlose Weißtöne von 2.200 bis 6.500 Kelvin. Über die Govee Home App lässt sich jede Nuance fein abstimmen: warm, kühl, bunt oder dezent. Wer mag, aktiviert einen der 71 Szenenmodi oder den Musikmodus, bei dem die Lampe im Rhythmus des Sounds pulsiert: perfekt für Filmabende, Partys oder immersive Gaming-Sessions.
Mit Alexa oder Google Assistant genügt ein kurzer Sprachbefehl, um Lichtstimmung oder Helligkeit anzupassen. Dank Matter-Kompatibilität ist die Lampe zukunftssicher und fügt sich nahtlos ins Smart-Home-System ein. In der App lassen sich Zeitpläne, Routinen oder automatische Dimmzyklen einstellen; auf Wunsch passt sich das Licht dem Tagesverlauf an und simuliert natürliche Helligkeit.
Govee setzt bei der Herstellung auf hochwertige, flammhemmende Materialien (5VA), einen Wi-Fi-Chip der neuesten Generation und 258 RGBWW-Lichtperlen. Das Ergebnis ist gleichmäßiges, flimmerfreies Licht und eine hohe Lebensdauer. Trotz der technischen Raffinesse bleibt die Installation einfach: montieren, verbinden, genießen.
Bei Amazon gibt es die Govee Smart-Deckenleuchte aktuell für 39,89 Euro statt 69,99 Euro, hier winkt also eine Ersparnis von 43 Prozent. Das Angebot ist zeitlich begrenzt und gilt nur, solange der Vorrat reicht. Es ist also etwas Eile geboten, wenn man diesen Rabatt in Anspruch nehmen möchte.
Reklame
Govee Deckenleuchte RGBIC Smart, 24W Ø30cm Led Deckenleuchte dimmbar, Deckenlampe Led mit 16 Millionen DIY Farben, Kompatibel mit Alexa & Google Assistant
Jetzt für unter 40 Euro sichernNeben der Deckenleuchte ist gerade auch die äußerst begehrte RGBICW-LED Stehlampe von Govee im Zweierpack bei Amazon im Angebot. Mit einem Rabatt von 37 Prozent zahlt man jetzt nur 107,98 Euro statt 169,99 Euro. Ein einleuchtender Deal:
Reklame
Govee RGBICW LED Stehlampe Wohnzimmer 2pack, WiFi Stehlampe Dimmbar, Arbeiten Sie mit Alexa und Google Assistant, 16 Millionen Farben, 61 Szenenmodi, Musikmodi, DIY-Modus
Jetzt mit 36% Rabatt sichernÜber 1.300 Bewertungen mit einem Schnitt von 4,6 von 5 Sternen sprechen eine recht deutliche Sprache. Die Nutzer nennen vor allem die enorme Lichtvielfalt, die intuitive App-Steuerung und das moderne Design. Besonders häufig wird auch erwähnt, dass sich die Lampe ideal für Schlafzimmer, Wohnzimmer oder Homeoffice eignet – hell genug zum Arbeiten, stimmungsvoll genug zum Abschalten.
Dieser Artikel enthält sogenannte Affiliate-Links. Bei einem Kauf der Produkte über diese Links erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.

Viele Ladegeräte unterscheiden sich äußerlich nur durch ihre Größe und ihre Farbe. Eine Ausnahme bildet das Ugreen Uno, das in Form eines Roboters für Abwechslung auf dem Schreibtisch sorgt. Gleichzeitig überzeugt es mit moderner Technologie und einer starken Ladeleistung für bis zu drei Geräte. Bei Amazon ist es zurzeit fast um die Hälfte reduziert.
Das Ugreen Uno Ladegerät nutzt moderne GaNFast-Technologie, die sich durch eine geringe Wärmeentwicklung auszeichnet und damit sowohl eine kompakte Bauweise als auch effiziente Ladevorgänge ermöglicht. Es verfügt über drei USB-Anschlüsse, die zwei USB-C-Ports und einen USB-A-Port umfassen und am Kopf des Roboters untergebracht sind.
Bei einzelner Verwendung erreicht der stärkste USB-C-Port eine Leistung von 65 W, womit sich ein Macbook Air M2 in nur 30 Minuten zu 51 Prozent aufladen lässt. Der zweite USB-C-Port arbeitet mit 30 W, während der USB-A-Port 22,5 W erreicht. Sind zwei oder drei Geräte gleichzeitig angeschlossen, wird die Leistung aufgeteilt, wobei am stärksten USB-C-Port 45 W zur Verfügung stehen. Verschiedene Schutzmechanismen, die Überladung, Überstrom, Überspannung sowie Überhitzung und Kurzschluss verhindern, gewährleisten eine sichere Verwendung.
Als Gesicht besitzt das Roboter-Ladegerät ein intelligentes Display, das je nach Status seinen Ausdruck ändert. So kann man mit einem Blick erkennen, ob ein Gerät gerade aufgeladen wird oder der Vorgang bereits abgeschlossen ist, und hat obendrein noch Spaß dabei.
Nach dem Gebrauch lässt sich das Ladegerät in seinem stiefelförmigen Standfuß aufstellen, der durch Magneten einen stabilen Halt bietet, den Stecker vor äußeren Einflüssen schützt und den Roboter zu einem attraktiven Designobjekt macht. Mit einer Größe von 4,6 × 4,3 × 8,7 Zentimetern und einem Gewicht von 167 Gramm ist er zudem leicht zu transportieren.
Bei Amazon gibt es zurzeit 48 Prozent Rabatt auf das Ladegerät Ugreen Uno , womit sich der Preis von 49,99 auf nur noch 25,99 Euro reduziert – günstiger war es bisher noch nie. Wer sich eine starke Ladeleistung im attraktiven Gewand sichern möchte, sollte bei diesem Deal nicht lange zögern und zugreifen, solange er noch verfügbar ist.
Reklame
UGREEN UNO USB C Ladegerät, 65W USB C Netzteil 3-Port GaN Schnellladegerät LED Display kompatibel mit MacBook Pro/Air, iPad, iPhone 16 Pro Max, 15 Pro, Galaxy S24 Ultra, Steam Deck (Schwarz)
Jetzt mit 48 % Rabatt bestellenNeben dem Ugreen Uno hat Amazon weitere Modelle des Herstellers im Angebot. Ein Ladegerät von Ugreen mit 200 W und acht Ports ist zum Beispiel mit 33 Prozent Rabatt für nur 53,98 statt 79,99 Euro erhältlich.
Reklame
UGREEN USB C Ladegerät 200W GaN Netzteil 8-Port Desktop Ladestation PD Charger 100W Schnellladegerät mehrfach unterstützt PPS kompatibel mit MacBook Pro/Air, iPhone Serien, Galaxy Serien usw.
Jetzt mit 33% Rabatt bestellenWeitere reduzierte Ladegeräte von Ugreen sind hier zu finden:
Angebote für Ladegeräte von Ugreen bei Amazon
Dieser Artikel enthält sogenannte Affiliate-Links. Bei einem Kauf der Produkte über diese Links erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.
Mann mit Vision Pro: Auch wer eine M2 hat, muss für die M5 den Vollpreis zahlen
(Bild: Apple)
Wer das neue Vision-Pro-M5-Modell erwerben will, kann nicht einfach den Vorgänger gegen Preisreduktion eintauschen. Das schreibt Apple im Kleingedruckten.
Apples neue Vision Pro mit M5-Chip [1] ist etwas günstiger als ihr Vorgänger: 3699 Euro zahlt man nun für das Einstiegsmodell mit 256 GByte, bei der Vision Pro mit M2 wurden noch mindestens 3999 Euro fällig. Da Apple sein Headset nie über den Handel vertrieben hat, gab es hier auch keine Preissenkungen, einzig über den Gebrauchtmarkt kam man an Geräte. Und genau dieser Gebrauchtmarkt dürfte sich nun stärker füllen als bisher: Apple selbst hat angekündigt, offiziell keinen Ankauf der ersten Vision Pro vorzunehmen, ein Trade-In-Verfahren [2], wie bei zahlreichen anderen Apple-Geräten, wird es nicht geben.
Trade-In bei Apple bedeutet, dass man ein Altgerät einreicht, es von dem Konzern geschätzt wird und man dann ein Guthaben erhält, das man wiederum zum Kauf von Neuware nutzen kann. Bei iPhones gibt es derzeit beispielsweise "Eintauschwerte" von bis zu 795 Euro (für ein iPhone 16 Pro Max, also das Topmodell aus 2024), bei Macs bis zu 1820 Euro (Mac Pro). Es ist unklar, was Apple für die Vision Pro M2 gezahlt hätte. Die Trade-In-Tarife des Konzerns gelten im Übrigen in der Refurb-Branche [3] nicht als top – wer das meiste Geld für sein Gebrauchtgerät herausholen will, ist anderswo oft besser bedient. Allerdings ist der Ankauf durch Apple eben sehr bequem.
Die Aussage, dass es für die Vision Pro M2 keinen Ankauf geben wird, hat Apple im Kleingedruckten seiner Pressemitteilung [4] zur Vorstellung der neuen Produkte versteckt. "Die Apple Vision Pro ist nicht für eine Inzahlungnahme qualifiziert", heißt es dort lapidar. Apple hat keine Angaben dazu gemacht, warum das Trade-In nicht möglich ist. Die Vision Pro soll sich allerdings in der ersten Version nur unterdurchschnittlich [5] verkauft haben. Beobachter waren teilweise überrascht, dass Apple die M5-Neuauflage gewagt hat, die bis auf den neuen Chip (etwas bessere Grafikleistung, KI und Akkulaufzeit) und ein neues Kopfband [6] praktisch keine Neuerungen aufweist.
Wer sich für die Vision Pro M5 interessiert und bereits das M2-Modell zuhause hat, muss nun also versuchen, einen externen Ankäufer zu finden – oder gleich auf Marktplätze wie eBay zu gehen. Dort gibt es Geräte momentan bereits ab gut 2500 Euro zum Sofortkauf. Die Preise könnten mit dem Verkaufsstart des M5-Modells, der nun begonnen hat, weiter sinken.
Vision-Pro-M2-Besitzer können ansonsten ihr Gerät zumindest teilweise auf M5-Niveau bringen: So wird das neue Kopfband mit zusätzlichem Überkopfgewebestreifen für 115 Euro [7] auch einzeln verkauft. Auch der sogenannte Developer Strap [8], den Apple deutlich beschleunigt hat, läuft mit dem M2-Headset.
URL dieses Artikels:
https://www.heise.de/-10812977
Links in diesem Artikel:
[1] https://www.heise.de/tests/Apple-Vision-Pro-M5-im-Test-Doppelt-haelt-besser-10793698.html
[2] https://www.apple.com/de/shop/trade-in
[3] https://www.heise.de/hintergrund/Das-zweite-Leben-So-arbeiten-iPhone-Refurbisher-9595191.html
[4] https://www.apple.com/de/newsroom/2025/10/new-ipad-pro-14-inch-macbook-pro-and-apple-vision-pro-now-available/
[5] https://www.heise.de/news/Vision-Pro-Welche-Zukunft-hat-Apple-im-Blick-10223674.html
[6] https://www.heise.de/news/Apples-neue-Vision-Pro-Aufhaengung-Das-kann-das-Dual-Band-aus-Strickgewebe-10767599.html
[7] https://www.apple.com/de/shop/product/dual-knit-band-sa/apple-vision-pro-dual-band-aus-strickgewebe?afid=p239%7C121977&cid=aos-de-aff-ir
[8] https://www.heise.de/news/Vision-Pro-Developer-Strap-Apple-legt-neue-Version-auf-10785499.html
[9] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[10] https://www.heise.de/mac-and-i
[11] mailto:bsc@heise.de
Copyright © 2025 Heise Medien
Wir sprechen über unsere Praxiserfahrungen mit der Vision Pro M5, Zubehör wie dem Logitech Muse und blicken auf Samsungs Kampfpreiskonkurrenten.
In den trägen Markt für VR-Headsets kommt plötzlich Bewegung: Apple hat die Vision Pro mit dem flinken M5 auf aktuellen Chip-Stand gebracht und geht mit einem neuen Kopfband eines der großen Probleme des Headsets an. Zugleich bringt Samsung mit der Galaxy XR einen ersten direkten Konkurrenten mit Android XR auf den Markt – mit offensichtlich ähnlich hervorragenden OLED-Mikrodisplays, aber zum praktisch halben Preis der Vision Pro.
In Episode 56 sprechen Leo Becker und Mark Zimmermann, Leiter für mobile Lösungen bei EnBW, über ihre konkreten Erfahrungen mit der Vision Pro M5. Wir blicken darauf, ob der leistungsfähigere Chip aus dem Headset mehr herauskitzeln kann und ob das neue Kopfband wirklich etwas bringt. Zimmermann berichtet von seinen ersten verblüffenden Erfahrungen mit Logitech für die Vision Pro gedachten 3D-Stift Muse. Wir diskutieren außerdem über Samsungs Galaxy XR und was die Konkurrenz für Apple bedeutet.
1984, 2007, 2024 – Apples Vision Pro tritt in riesige Fußstapfen: Mac und iPhone [2] haben nicht nur Geschichte geschrieben, sondern auch grundlegend verändert, wie wir Computer verwenden.
Mac & i begleitet die Vision Pro sowie die Chancen und Hürden von "räumlichem Computing" mit einem eigenen Podcast: TNBT – The Next (Big) Thing [3] beleuchtet die jüngsten Entwicklungen rund um die neue Plattform mitsamt den Auswirkungen auf IT-Branche und Gesellschaft.
TNBT ist in allen großen Podcast-Verzeichnissen zu finden und lässt sich mit Apple Podcasts [4] und Spotify [5] hören oder als RSS-Feed [6] in der Podcast-App der Wahl beziehen. Wir freuen uns unter podcast@mac-and-i.de [7] auf Fragen, Anregungen und Kritik.
URL dieses Artikels:
https://www.heise.de/-10855875
Links in diesem Artikel:
[1] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[2] https://www.heise.de/thema/iPhone
[3] https://tnbt.podigee.io
[4] https://podcasts.apple.com/de/podcast/tnbt-ein-podcast-von-mac-i/id1691058408
[5] https://open.spotify.com/show/2JtuzB6ib8NP3KjQkwRmxN
[6] https://tnbt.podigee.io/feed/mp3
[7] mailto:podcast@mac-and-i.de
[8] https://www.heise.de/mac-and-i
[9] mailto:lbe@heise.de
Copyright © 2025 Heise Medien
Samsung-Schriftzug an einer Hecke: Nicht verwandt und nicht verschwägert.
(Bild: Sundry Photography/Shutterstock.com)
Nachdem er 2012 wegen seines Namens viral gegangen war, hat sich ein ehemaliger Apple-Retail-Angestellter umbenannt. Aus "Sam Sung" wurde "Sam Struan".
Eine Geschichte, die vor dreizehn Jahren in der Apple-Szene für Schmunzeln sorgte, hat nun ein (glückliches) Ende gefunden: Der ehemalige Apple-Retail-Mitarbeiter mit dem für den iPhone-Hersteller eher unpassenden Namen Sam Sung [1] hat sich offiziell umbenannt. Aus Sam Sung wird nun "Sam Struan", teilte der heute 36-Jährige in einem Gastbeitrag auf der US-Wirtschaftsseite BusinessInsider [2] mit. Die Umbenennung sei auch deshalb erfolgt, weil sein Geburtsname derart viral gegangen sei.
Struan hatte zuvor in mehreren Apple-Läden gearbeitet: Zunächst im schottischen Glasgow, später dann im kanadischen Vancouver. Struan hatte zuletzt die Stelle als "Specialist" inne, und dafür auch entsprechende Visitenkarten. Einer der Kunden bekam diese 2012 in die Hände und postete sie schließlich auf Twitter, was eine ganze virale Welle lostrat [3]. Struan nahm das sichtlich mit, er löschte sein LinkedIn-Profil unter dem Namen. 2013 verließ er schließlich Apple und versteigerte dann ein Jahr später Teile seiner Apple-Kleidung samt "Name Badge" und Visitenkarten zu Gunsten einer Kinderstiftung.
Die Namensänderung nahm er dann nach eigenen Angaben vor, weil er "nicht bekannt für einen Internetwitz" sein wollte. "Struan" hat für ihn eine Bedeutung, das sei sein Liebingsort in Schottland [4]. Heute sieht Struan die Situation allerdings etwas anders als noch 2012. Damals habe er befürchtet, durch den Wirbel womöglich seinen Job zu verlieren. "Ich hatte so viel Angst, ich wollte einfach nur nicht auffallen und weiter arbeiten." Rückblickend sei das lustig: "Ich hatte in diesem Moment wahrscheinlich die höchste Arbeitsplatzsicherheit, die ich je hatte. Hätte Apple mich gefeuert, hätte das noch mehr Aufruhr verursacht."
Damals seien Reporter in den Laden gekommen. "Apple hat mich deshalb zunächst von der Verkaufsfläche genommen." Seinen Kollegen habe man gesagt, ihn gegenüber Dritten nicht zu identifizieren. Visitenkarten gab es für ihn dann nicht mehr. "Die Leute kamen in den Laden und fragten, ob Sam Sung im Geschäft arbeitet. Ich habe dann so getan, als wäre ich das nicht." Am Telefon habe man ihn schon aufgrund seines schottischen Akzents nicht erkannt. Immerhin sei der Aufruhr dann nach einigen Monaten abgeebbt.
Struan hatte später auch ein anderes Problem: Nachdem er sich im Bereich Berufeconsulting zu etablieren versuchte, waren aufgrund des alten Namens kaum Möglichkeiten vorhanden, zur Marke zu werden. "Die Big-Tech-Firma hat schon ihre eigene Marke." Es sei also sinnvoll gewesen, den Namen zu ändern. Heute wünschte er, seinem jüngeren Ich sagen zu können, dass die Sache doch lustig gewesen sei. "Ich hätte mir keine Gedanken über meinen Job machen müssen." Besser wäre es gewesen, das LinkedIn-Profil offen zu halten und den Leuten zu danken, die sich damals bei ihm gemeldet hätten. "Ich hätte das Ganze als das, was es war, mehr genießen können."
URL dieses Artikels:
https://www.heise.de/-10812546
Links in diesem Artikel:
[1] https://www.heise.de/news/Ex-Apple-Mitarbeiter-Sam-Sung-macht-seinen-Namen-zu-Geld-2287881.html
[2] https://www.businessinsider.com/sam-sung-goes-viral-why-changed-name-after-apple-fame-2025-10
[3] https://www.huffpost.com/archive/ca/entry/sam-sung-apple-specialist-in-vancouver-goes-viral_n_2161668
[4] https://en.wikipedia.org/wiki/Struan,_Skye
[5] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[6] https://www.heise.de/mac-and-i
[7] mailto:bsc@heise.de
Copyright © 2025 Heise Medien
(Bild: Runrun2/Shutterstock.com)
DeepSeek experimentiert mit einem OCR-Modell und zeigt, dass komprimierte Bilder für Berechnungen auf GPUs speicherfreundlicher sind als viele Text-Token.
Viele Unternehmensdokumente liegen zwar als PDFs vor, sind aber häufig gescannt. Obwohl es simpel klingt, können diese Dokumente oftmals nur unter großen Mühen in Text gewandelt werden, insbesondere wenn die Struktur der Dokumente komplexer ist und erhalten bleiben soll. Auch Bilder, Tabellen und Grafiken sind häufige Fehlerquellen. In den letzten Monaten gab es daher eine wahre Flut von OCR-Software, die auf großen Sprachmodelle (LLMs) setzt.
Auch der chinesische KI-Entwickler DeepSeek steigt nun in diesen Bereich ein und veröffentlicht nach dem Reasoning-Modell R1 [1] ein experimentelles OCR-Modell unter MIT-Lizenz [2]. Auf den ersten Blick mag das verblüffen, denn OCR schien bisher nicht die Kernkompetenz von DeepSeek zu sein. Und tatsächlich ist das neue Modell erstmal eine Technikdemo für einen neuen Ansatz in der Dokumentenverarbeitung von großen Sprachmodellen.
DeepSeek versucht, lange Textkontexte in Bildern zu komprimieren, da sich hierdurch eine höhere Informationsdichte mit weniger Token darstellen lässt. DeepSeek legt die Messlatte für die Erwartungen hoch und berichtet, dass das Modell bei hohen Kompressionsraten (Faktor 10) noch eine Genauigkeit von 97 Prozent erreicht, bei einer noch stärkeren Kompression fällt zwar die Genauigkeit, bleibt dabei aber relativ hoch. Das alles soll schneller funktionieren als bei anderen OCR-Modellen und auf einer Nvidia A100-GPU bis zu 200.000 Seiten pro Tag verarbeiten.
Large Language Models haben Speicherprobleme, wenn der Kontext von Prompts sehr groß wird. Das ist der Fall, wenn das Modell lange Texte oder mehrere Dokumente verarbeiten soll. Grund dafür ist der für effiziente Berechnungen wichtige Key-Value-Cache, der quadratisch mit der Kontextgröße wächst. Die Kosten der GPUs steigen stark mit dem Speicher, was dazu führt, dass lange Texte sehr teuer in der Verarbeitung sind. Auch das Training solcher Modelle ist aufwendig. Das liegt allerdings weniger am Speicherplatz, sondern auch an der quadratisch wachsenden Komplexität der Berechnungen. Daher forschen die LLM-Anbieter intensiv daran, wie sich man diesen Kontext effizienter darstellen kann.
Hier bringt DeepSeek die Idee ins Spiel, den Kontext als Bild darzustellen: Bilder haben eine hohe Informationsdichte und Vision Token zur optischen Kompression könnten einen langen Text durch weniger Token. Mit DeepSeek-OCR haben die Entwickler diese Grundidee überprüft - es ist also ein Experiment zu verstehen, das zeigen soll, wie gut die optische Kompression funktioniert.
Der dazugehörige Preprint [3] besteht aus drei Teilen: einer quantitativen Analyse, wie gut die optische Kompression funktioniert, einem neuen Encoder-Modell und dem eigentlichen OCR-Modell. Das Ergebnis der Analyse zeigt, dass kleine Sprachmodelle lernen können, wie sie komprimierte visuelle Darstellungen in Text umwandeln.
Dazu haben die Forscher mit DeepEncoder ein Modell entwickelt, das auch bei hochaufgelösten Bildern mit wenig Aktivierungen auskommt. Der Encoder nutzt eine Mischung aus Window und Global Attention verbunden mit einem Kompressor, der Konvolutionen einsetzt (Convolutional Compressor). Die schnellere Window Attention sieht nur einzelne Teile der Dokumente und bereitet die Daten vor, die langsamere Global Attention berücksichtigt den gesamten Kontext, arbeitet nur noch mit den komprimierten Daten. Die Konvolutionen reduzieren die Auflösung der Vision Token, wodurch sich der Speicherbedarf verringert.
DeepSeek-OCR kombiniert den DeepEncoder mit DeepSeek-3B-MoE. Dieses LLM setzt jeweils sechs von 64 Experten und zwei geteilte Experten ein, was sich zu 570 Millionen aktiven Parametern addiert. Im Gegensatz zu vielen anderen OCR-Modellen wie MinerU, docling, Nanonets, PaddleOCR kann DeepSeek-OCR auch Charts in Daten wandeln, chemische Formeln und geometrische Figuren erkennen. Mathematische Formeln beherrscht es ebenfalls, das funktioniert zum Teil aber auch mit den anderen Modellen.
Die DeepSeek-Entwickler betonen allerdings, dass es sich um eine vorläufige Analyse und um ebensolche Ergebnisse handelt. Es wird spannend, wie sich diese Technologie weiterentwickelt und wo sie überall zum Einsatz kommen kann. Das DeepSeek-OCR-Modell unterscheidet sich jedenfalls beträchtlich von allen anderen. Um zu wissen, wie gut und schnell es funktioniert, muss man das Modell jedoch selbst ausprobieren.
Als Testobjekt dient eine Seite aus einer iX [4], die im JPEG-Format vorliegt. DeepSeek-OCR kann in unterschiedlichen Konfigurationen arbeiten: Gundam, Large und Tiny. Im Gundam-Modus findet ein automatisches Resizing statt. Im Moment funktioniert das noch etwas instabil, bringt man die Parameter durcheinander, produziert man CUDA-Kernel-Fehler und muss von vorne starten.
Möchte man den Text aus Dokumenten extrahieren, muss man das Modell geeignet prompten. DeepSeek empfiehlt dazu den Befehl <image>\n<|grounding|>Convert the document to markdown.. Als Ergebnis erhält man in einem Ordner die Markdown-Syntax und die zusätzlichen Bilder, außerdem eine visuelle Erklärung, welche unterschiedlichen Fragmente erkannt wurden. Im Gundam-Modus funktioniert das für die iX-Seite gut:
Den Text hat das Modell praktisch fehlerfrei erkannt und dazu auf einer RTX 4090 etwa 40 Sekunden benötigt. Das ist noch weit entfernt von den angepriesenen 200.000 Seiten pro Tag, allerdings verwendet Gundam auch nur ein Kompressionsfaktor von zwei: 791 Image Token entsprechen 1.580 Text Token. Immerhin erkennt das Modell den Textfluss im Artikel richtig. Das ist bei anderen Modellen ein gängiges Problem.
Mit etwa 50 Sekunden rechnet die Large-Variante nur wenig länger als Gundam, allerdings sind die Ergebnisse viel schlechter, was möglicherweise auch dem größeren Kompressionsfaktor geschuldet ist: 299 Image-Token entsprechen 2068 Text-Token. Im Bild verdeutlichen das die ungenauer erkannten Boxen um den Text – hier gibt es noch Optimierungsbedarf. Außerdem erkennt das Modell die Texte nicht sauber, teilweise erscheinen nur unleserliche Zeichen wie "¡ ¢", was möglicherweise auf Kodierungsfehler und eigentlich chinesische Schriftzeichen hindeuten könnte.
Fehler mit unleserlichen Zeichen gibt es beim Tiny-Modell nicht. Das rechnet mit einer Dauer von 40 Sekunden wieder etwas schneller und nutzt einen Kompressionsfaktor von 25,8 - 64 Image-Token entsprechen 1652 Text-Token. Durch die hohe Kompression halluziniert das Modell allerdings stark und erzeugt Text wie "Erweist, bei der Formulierung der Ab- fragen kann ein KI-Assistent helfen. Bis Start gilt es auf Caffès offiziell die Gewicht 50 Prozent der Früh-, der Prüfung und 50 Prozent für den Arzt- und NEUT und in Kürze folgen. (Spezielle)". Das hat nichts mit dem Inhalt zu tun – auf diese Modellvariante kann man sich also nicht verlassen.
Neben der Markdown-Konvertierung lässt DeepSeek-OCR auch ein Free OCR zu, das das Layout nicht berücksichtigt. Damit funktioniert das Modell sehr viel schneller und produziert auch in der Large-Version mit hoher Kompression noch gute Resultate. Diese Variante ist aber nur sinnvoll, wenn man weiß, dass es sich um Fließtexte ohne schwieriges Layout handelt.
DeepSeek-OCR hat beim Parsing die im Artikel enthaltenen Bilder erkannt und separat abgelegt. Das Diagramm speichert das Modell dabei in einer schlecht lesbaren Auflösung.
Jetzt wird es spannend, denn DeepSeek-OCR soll aus diesem Diagramm auch Daten extrahieren können, das geht mit dem Prompt <image>\nParse the figure.. Als Ergebnis erstellt das Modell die folgende Tabelle:
| 2024 | 2023 | 2022 | |
| I have a good understanding of what artificial intelligence is | 67% | 67% | 64% |
| I know which types of products and services use artificial intelligence | 52% | 51% | 50% |
| Products and services using artificial intelligence have profoundly changed my daily life in the past 3-5 years | 50% | 50% | 49% |
| Products and services using artificial intelligence will profoundly change my daily life in the next 3-5 years | 66% | 66% | 60% |
| Products and services using artificial intelligence have more benefits than drawbacks | 55% | 54% | 52% |
| I trust people not to discriminate or show bias toward any group of people | 45% | 45% | 44% |
| I trust artificial intelligence to not discriminate or show bias toward any group of people | 54% | 54% | 50% |
| I trust that companies that use artificial intelligence will protect my personal data | 47% | 50% | 50% |
| Products and services using artificial intelligence make me nervous | 39% | 39% | 39% |
Offenbar haben sich Fehler in die Tabelle eingeschlichen, aber zumindest hat das Modell den verwaschenen Text richtig erkannt. Hier zeigt sich die Stärke des Encoders, aber auch die englische Beschriftung vereinfacht den Prozess für das Modell. Die meisten Prozentwerte stimmen, ebenso die Struktur der Daten. Verwendet man eine höhere Auflösung, verbessern sich die Ergebnisse allerdings nur marginal.
Neben Diagrammen kann DeepSeek-OCR auch mathematische Formeln erkennen und sie in LaTeX-Syntax wandeln. Chemische Strukturformeln hat es auch im Repertoire und wandelt sie in das SMILES-Format.
DeepSeek hat sich erneut einen spannenden technischen Ansatz ausgedacht und mit DeepSeek-OCR überzeugend demonstriert. Die Erkennung von Texten funktioniert besonders im Gundam-Modus schon gut, auch das Parsing der Diagramme ist überzeugend. Allerdings sind andere Modelle wie MinerU, Nanonets und PaddleOCR-VL besonders bei der reinen Texterkennung ebenfalls sehr gut und liefern teilweise sogar bessere Ergebnisse, da sie etwa getrennte Wörter zusammenführen. Besonders das ebenso nagelneue PaddleOCR-VL ist hervorzuheben, das Daten aus Diagrammen verlässlich extrahiert und in eigenen Tests sogar besser als DeepSeek-OCR funktionierte. Um OCR ist ein wahres Wettrennen entbrannt.
DeepSeek scheint mit dem Modell jedoch nicht nur auf OCR zu setzen, sondern möchte zeigen, dass die Vision Token eine gute Darstellung sind, um den Kontext in großen Sprachmodellen besonders kompakt zu speichern. Mit einer geringen Kompression funktioniert das schon gut, mit höherer Kompression leiden die Ergebnisse aber spürbar. Dieser Ansatz steht allerdings noch ganz am Anfang.
DeepSeek-OCR ist in allen Konfigurationen verhältnismäßig schnell. Experimente mit MinerU, Nanonets und PaddleOCR-VL waren alle mindestens 50 Prozent langsamer. Nanonets erzeugte immerhin eine Tabelle aus dem Diagramm, aber ohne die Jahreszahlen, dafür war der Fließtext sehr viel besser erkannt. Das nagelneue PaddleOCR-VL konnte das Diagramm sogar besser als DeepSeek-OCR erkennen, ist aber nicht auf chemische Strukturformeln und ähnliche Inhalte trainiert.
DeepSeek-OCR ist – wie von den Entwicklern deutlich vermerkt – eine Technologiedemonstration, die dafür schon äußerst gut funktioniert. Es bleibt abzuwarten, wie sich die Technologie in klassische LLMs integrieren lässt und dort zur effizienteren Verarbeitung von längeren Kontexten genutzt werden kann.
Weitere Informationen finden sich auf GitHub [6], Hugging Face [7] und im arXiv-Preprint [8].
URL dieses Artikels:
https://www.heise.de/-10845788
Links in diesem Artikel:
[1] https://www.heise.de/hintergrund/DeepSeek-R1-vorgestellt-Guenstiges-Reasoning-fuer-alle-10273912.html
[2] https://www.heise.de/news/DeepSeek-OCR-Wie-Bilder-Chatbots-helfen-lange-Gespraeche-zu-fuehren-10793565.html
[3] https://arxiv.org/abs/2510.18234
[4] https://www.heise.de/select/ix/2025/6/2509712271597243131
[5] https://www.heise.de/select/ix/2025/6/2509712271597243131
[6] https://github.com/deepseek-ai/DeepSeek-OCR/tree/main
[7] https://huggingface.co/deepseek-ai/DeepSeek-OCR
[8] https://arxiv.org/abs/2510.18234
[9] https://www.heise.de/ix
[10] mailto:pst@heise.de
Copyright © 2025 Heise Medien
KI-Modelle, die auf eigener Hardware laufen, sind inzwischen deutlich besser als noch vor einigen Monaten. c't 3003 hat mehrere brauchbare Modelle gefunden.
Statt Prompts auf US-Server zu posaunen, kann man KI-Modelle auch auf eigener Hardware laufen lassen: Das ist nicht nur besser für die Privatsphäre, sondern macht auch unabhängiger von den Launen der KI-Anbieter (die gerne mal liebgewonnene Modelle durch andere austauschen). Die Frage ist nur: Welche Modelle sind brauchbare? Welche Hardware braucht man dafür? Diese Fragen versucht c't 3003 in einem ausführlichen Video zu beantworten.
(Hinweis: Dieses Transkript ist für Menschen gedacht, die das Video oben nicht schauen können oder wollen. Der Text gibt nicht alle Informationen der Bildspur wieder.)
Guckt mal hier, hier lasse ich mir gerade was von einem KI-Modell coden – in irrsinniger Geschwindigkeit. Das Beste: Das passiert alles lokal auf meinem Rechner, und das Ergebnis ist manchmal sogar besser als das, was die großen kommerziellen Anbieter wie ChatGPT von OpenAI oder Claude liefern. Naja, okay, die Betonung liegt auf manchmal, aber ich war ehrlich gesagt wirklich erstaunt, wie sich die lokalen Modelle entwickelt haben.
In diesem Video, das sich auch an Leute richtet, die noch nicht so viel Ahnung von lokaler KI haben, erkläre ich euch: Was braucht man für einen Rechner dafür, was braucht man für Software dafür und vor allem, welche KI-Modelle nimmt man am besten? Ja, NVIDIAs DGX Spark kommt auch vor – auch wenn ich davon bislang ziemlich enttäuscht bin. Bleibt dran.
Liebe Hackerinnen, liebe Internetsurfer, herzlich willkommen hier bei...
Okay, lokale KI-Modelle – das ist bei euch ein Riesenthema, kann ich nicht anders sagen. Ich krieg da viel Feedback von euch, auch übrigens schon öfter in der echten Welt, dass ihr mich darauf ansprecht. Eine häufige Frage ist: Was brauche ich dafür für einen Rechner, was kaufe ich mir am besten? Könnt ihr da mal einen Rechner empfehlen? Welche Modelle taugen überhaupt was? Sind die inzwischen so gut wie ChatGPT oder Claude?
Das alles versuche ich in diesem Video zu beantworten – und ich sag mal, das wird ein heißer Ritt. Ich hoffe, dass ich euch nicht alle nach und nach verliere, ja, weil da gibt es schon viel zu besprechen. Zumindest ich finde es alles richtig interessant – und das ist ja die Hauptsache, wenn man so ein Video macht.
Fangen wir mal mit dem optimalen Rechner dafür an. Und das ist tatsächlich eine Frage, die in der c’t-Redaktion, und ich übertreibe nicht, zu stunden- und sogar tagelangen Diskussionen geführt hat. Das Problem ist halt: KI ist nicht gleich KI – und man kann den optimalen Rechner eben deswegen schlecht verallgemeinern.
Wollt ihr einfach ein lokales LLM als Chatbot mit LM Studio anzapfen, wollt ihr Bilder, Videos oder Musik generieren, wollt ihr Audio mit Whisper transkribieren, wollt ihr vielleicht sogar Modelle finetunen – das sind alles unterschiedliche Nutzungsszenarien. Ich weiß, dass das schwierig ist, aber ich versuche das jetzt trotzdem mal mit einer Empfehlung.
Fangen wir mal an mit lokalen KI-Modellen, die man mit LM Studio zum Beispiel anzapft, um so einen lokalen Chatbot hinzukriegen. Viele nennen diese Modelle ja Open-Source-Modelle, aber das ist mindestens irreführend – ich würde sogar sagen falsch. Wenn die wirklich Open Source wären, dann müssten da ja auch Informationen darüber drin sein, wie genau die trainiert wurden. Also eigentlich müsste es dann zumindest Zugriff auf die Trainingsdaten geben – und das ist so gut wie nie der Fall.
Deshalb ist es präziser, Open Weights zu sagen statt Open Source. Das heißt, dass man die Parameter des Modells runterladen und auf eigener Hardware laufen lassen kann. Also wenn wir hier von lokalen LLMs oder lokalen Modellen reden, dann sind das Open-Weights-Modelle. Aber „lokales Modell“ finde ich eigentlich am einfachsten, weil das aussagt: Kann ich auf eigener Hardware mitmachen, was ich will.
Ja, also jedenfalls: Wenn ihr damit euer eigenes ChatGPT bauen wollt – was nehmt ihr dann für Hardware? Da würde ich jetzt erst mal ganz kurz diese Tabelle hier einblenden, die ich gerade zusammengestellt habe. Die ist nämlich dafür extrem hilfreich.
Beim Abzapfen von LLMs – die KI-Crowd nennt das ja Inferenz – ist wirklich zum allergrößten Teil die Speicher-Datentransferrate relevant. Das heißt: Habt ihr eine Grafikkarte mit schnellem Speicher und passt das Sprachmodell da komplett rein, dann läuft das schnell.
Hier, guck mal: Das ist Mistral Small 3.2, komplett in meiner RTX 4090-Grafikkarte – bäm, über 40 Token die Sekunde. Ja, GDDR6X-Speicher mit ungefähr einem Terabyte Datentransferrate pro Sekunde, das ist schnell. Wenn ich das gleiche Modell nur auf meiner CPU laufen lasse, die auch echt nicht langsam ist mit ihren 16 Kernen, die aber dafür nur DDR5‑5600‑Speicher zur Verfügung hat, mit nur 90 Gigabyte Datentransferrate, ja – dann kriege ich nur drei Token pro Sekunde. Ich bin selbst echt überrascht, wie das skaliert.
Denn 1000 Gigabyte sind ja ungefähr das Elffache von 90 Gigabyte, und 40 Token pro Sekunde sind das 13-Fache von drei Token. Natürlich funktioniert das in der Praxis nicht ganz exakt, weil da noch mehr Faktoren eine Rolle spielen. Aber grob gesagt, kann man das schon so sagen.
Das Problem ist halt nur: Wenn ich eine einzelne Grafikkarte haben will mit diesem schnellen Speicher im Preisbereich unter mehreren Zehntausend Euro, dann bekomme ich zurzeit nur die RTX 5090 mit 32 Gigabyte Speicher – zwar GDDR7, superschnell, aber eben nur 32 Gigabyte.
Das heißt: Wenn ich Sprachmodelle schnell abzapfen will, dann kann ich nur Sprachmodelle benutzen, die da reinpassen. Und zum Beispiel das echt richtig gute GPT‑OSS 120B von OpenAI– also mit 120 Milliarden Parametern – braucht 63 Gigabyte Speicher. Vielleicht einfach zwei 5090er kaufen? Nee, geht nicht, denn Nvidia unterstützt NVLink nicht mehr. Also die Technik zum Bündeln von mehreren Grafikkarten – das können nur Karten bis einschließlich der 3090er‑Generation.
Und das ist auch der Grund, warum sich einige KI-Freaks Workstation-Mainboards kaufen und da dann zum Beispiel drei gebrauchte 3090er reintun. Die gibt’s auf dem Gebrauchtmarkt so ab 700 Euro das Stück. Ja, das ist aufwendig zu kühlen, aber das knallt ganz schön was weg in Sachen Token pro Sekunde – und unterstützt halt Sprachmodelle bis 72 Gigabyte Größe. (Die 3090 hat 24 Gigabyte pro Stück, also 3 × 24 = 72 Gigabyte.)
Solche Rigs schaffen mit GPT‑OSS 120B laut etlicher Quellen im Netz deutlich über 50 Token pro Sekunde, zum Teil noch viel mehr – also wirklich gute Werte. Wenn ihr jetzt die aktuellen News verfolgt und sagt: Hä, warum denn so viel Aufwand? Man kann inzwischen doch für ungefähr 4000 Euro eine Nvidia DGX Spark kaufen – die hat doch 128 Gigabyte schnellen Unified‑Speicher. Da wird ja gar nicht zwischen normalem RAM und schnellem Video‑RAM unterschieden, übrigens wie bei Apple auch. Und die ist ja extra für KI‑Workloads gemacht – die müsste doch super damit funktionieren, oder?
Ich habe das Teil zwar selbst noch nicht testen können, aber dafür viele Tests im Netz gesehen. Und da kommen die Leute mit dem GPT‑OSS 120B maximal auf 43 Token/Sekunde, zum Teil noch deutlich weniger. Ich habe euch mal [1]ein paar [2] Tests [3] verlinkt – das ist also deutlich weniger als die selbstgebauten Kisten mit mehreren 3090ern.
Aber nochmal der deutliche Disclaimer: Die Benchmarks hier sind nicht von uns – also alles mit Vorsicht genießen. Was aber definitiv sicher ist: Die DGX Spark hat eine deutlich geringere Leistungsaufnahme als solche Rechner mit mehreren 3090ern.
Was ich vor allem krass finde: Rechner mit AMD Strix Halo, also Ryzen AI Max+ 395. Die gibt’s so ab 1800 Euro, und die schaffen ungefähr genauso viele Token/Sekunde wie eine DGX Spark – nur halt deutlich günstiger.
Ich habe ja noch meinen Framework‑Desktop mit AI Max Plus+ stehen, und damit habe ich in LLM Studio ungefähr 36 Token/Sekunde mit GPT‑OSS 120B gemessen – zumindest, wenn ich manuell alles auf die GPU gemappt habe.
Ach so, ich muss hier mal kurz einschieben: Wir sprechen hier nur von den Decode‑Werten, also der reinen Ausgabe der LLMs. Beim sogenannten Prefill, in dem das LLM den Prompt und den Kontext liest und daraus den internen Speicher – also den KV‑Cache – baut, da ist Rechenkraft, also Compute, relevant. Und da ist die DGX Spark deutlich schneller als die AMD‑Konkurrenz. Das will ich der Vollständigkeit halber gerne noch sagen.
Aber für so ein normales LLM‑Anzapfen kommt man günstiger bei rum – zum Beispiel mit Apple‑Rechnern. Macs sind auch eine Alternative: Da gibt’s Modelle mit 120 Gigabyte Unified‑schnellem Speicher. Wird natürlich dann schnell teuer.
Ich habe GPT‑OSS 120B gerade mal auf dem MacBook Pro mit M3 Max laufen lassen – der ist über zweieinhalb Jahre alt und schafft aber 40 Token/Sekunde, also schon ungefähr in der Range wie die DGX Spark – auf dem Notebook.
Was ich bei meinem eigenen Rechner gemacht habe: Ich will ja auch Linux nutzen, und so habe ich mir für ungefähr 500 Euro zweimal 64 Gigabyte normalen DDR5‑Speicher gekauft und den da einfach reingeworfen – also in den Rechner mit meiner RTX 4090. Und darauf schaffe ich mit GPT‑OSS 120B ziemlich annehmbare 14 Token/Sekunde. Damit reiße ich jetzt keine Bäume aus, aber ich kriege halt ein 63‑Gigabyte‑großes Sprachmodell zum Laufen – auf einem Rechner mit nur 24 Gigabyte Grafikspeicher. Für alle, die es genau wissen wollen: Ich habe den GPU‑Offload auf 13 von 36 eingestellt.
Was ich euch auf jeden Fall generell als Empfehlung sagen kann: Checkt, welche Sprachmodelle ihr genau laufen lassen wollt. Wenn die klein sind, also sagen wir mal kleiner als 24 Gigabyte, dann reichen natürlich 24 Gigabyte schneller Grafikspeicher – und dann reicht auch z. B. eine 3090 oder 4090.
Also, wenn ihr KI machen wollt und ihr eine gebrauchte 3090 auftreiben könnt, dann seid ihr auf jeden Fall ziemlich gut bedient. Die Geschwindigkeitsvorteile der beiden nachfolgenden Generationen sind bei KI nicht so richtig groß.
Die ganzen Textsachen – also z. B. so ein lokaler Chatbot mit LM Studio – funktionieren aber auch gut mit AMD‑Grafikkarten. Da könntet ihr auch zuschlagen. Oder ihr nehmt halt einen Mac; die haben auch schnellen gemeinsamen Speicher, je nach Modell – seht ihr hier in der Tabelle nochmal.
Aber für andere KI‑Anwendungen als LLMs laufen zu lassen, z. B. mit LLM Studio, also sowas wie Comfy UI zum Bilder‑ oder Video‑Generieren, da seid ihr vor allem mit Nvidia‑Grafikkarten am besten bedient, weil die halt CUDA können. Diese Programmierschnittstelle wird von vielen KI‑Programmen nach wie vor hauptsächlich genutzt. Immer mehr Programme wie eben LLM Studio beherrschen aber auch MLX – das ist das Apple‑Pendant zu CUDA – oder halt ROCm, das ist die AMD‑Variante, aber eben: viele Programme nicht. Die können nur CUDA.
Das heißt: Wenn ihr viel experimentieren wollt mit unterschiedlichen Sachen, muss ich Nvidia empfehlen. Aber geht zum Beispiel auch mit gebrauchten Nvidia‑Karten – eben der 3090er‑Empfehlung.
Ganz kurz zwischengefragt: Interessiert euch, dass wir mal so ein Multi‑GPU‑System mit KI mit gebrauchten 3090ern aufbauen? Ist halt ziemlich viel Aufwand, aber wenn das Interesse bei euch groß genug ist, dann würden wir das schon machen – also, ich hätte Bock. Wenn’s keinen interessiert, natürlich nicht.
So, das war jetzt erst mal zur Hardware. Jetzt kommen die lokal laufenden Sprachmodelle. Was nimmt man da denn so? Sind die inzwischen so gut wie ChatGPT?
Lange war die Antwort nein – und ich meine wirklich deutlich, deutlich schlechter. Man kann auch sagen: unbrauchbar.
Hier mal so ein älteres Modell auf die Frage „Was ist das c’t‑Magazin?“
Antwort: „Der c’t‑Magazin ist ein Zeitschrift für alles, was heute im Thema ist.
Das c’t‑Magazin ist ein wichtiges Leitfadenspiel, das alles ausprobiert, um sich mit den Menschen in Beziehung zu setzen und das ganze Leben damit zu verbinden.“ Also einfach – man kann es nicht anders sagen – Kauderwelsch.
Was ich auch sehr schön finde, ist hier die Antwort auf diese Rechenaufgabe: „Viel“ und dann so … „Nee, vier.“
Aber das waren wirklich alte Modelle, die ersten.
Dann kam Anfang des Jahres DeepSeek aus China – und das war wirklich das erste lokal betreibbare LLM, das mit der US‑Konkurrenz in der Cloud mithalten konnte. Allerdings – und das war das Problem – die vollständige DeepSeek‑Variante braucht über 700 Gigabyte Speicher, möglichst extrem schnellen Speicher, also wie man es halt mit Profi‑Rechenzentrums‑GPUs hinkriegt für viele, viele Zehn‑ oder sogar Hunderttausend Euro.
Aber jetzt sind ja wieder ein paar Monate vergangen, und ich muss sagen: Ich bin erstaunt, wie gut inzwischen auch ganz kleine Modelle performen. Also Modelle, die so gut wie jeder Rechner oder sogar Smartphones laufen lassen können – vor allem beim Coding.
Ich habe ja gerade schon ein paarmal LM Studio erwähnt – das habe ich in diesem Video auch nur verwendet.
Das gibt es für Linux, Windows und macOS, und das ist aktuell meine Lieblingsplattform zum Anzapfen von Sprachmodellen.
Ich habe früher immer Ollama verwendet, aber ich mag LLM Studio inzwischen lieber – einmal, weil man bei LM Studio viel einfacher die ganzen Parameter drumherum einstellen kann, also zum Beispiel, wie viel man auf die Grafikkarte auslagert, wie groß das Kontextfenster ist – also quasi das Kurzzeitgedächtnis – und weil Ollama mit so komischen Sachen wie Cloud‑Unterstützung und Accounts angefangen hat.
Und ja, bei lokaler KI geht es ja gerade darum, dass man sich eben nicht an Cloud‑Anbieter hängt. Ich will Ollama jetzt auch nicht schlechtreden. Wenn ihr das lieber benutzt, könnt ihr das natürlich gerne machen – also kein Ding.
Ich habe auf jeden Fall einfach LM Studio installiert, dann hier unter „Entdecken“ ein paar Sprachmodelle installiert und dann im Chat oben das gewünschte Modell ausgewählt – und dann einfach gepromptet: „Ich brauche eine Website, die die Uhrzeit in Hannover, New York und Tokio hübsch darstellt. Gib mir was, was ich einfach in einer HTML‑Datei copy‑pasten kann.“ Das Ganze auf Englisch, weil ich gerade bei kleineren Modellen nicht so sicher bin, welche Deutsch‑Fähigkeiten die so haben – und es soll ja fair und gerecht zugehen.
Ja, und so sah das Ergebnis bei den großen, teuren Cloud‑Sprachmodellen aus – also ChatGPT mit GPT‑5 Thinking (mit Abo), Gemini 2.5 Flash und Claude Sonnet 4.5. Und das hier ist von Qwen 3 4B 2507. Und jetzt mal kurz innehalten: Dieses Sprachmodell ist läppische 2,5 Gigabyte groß – das läuft also wirklich auf jeder Kartoffel – und es produziert meiner Meinung nach das visuell am besten gelungene Ergebnis.
Seht ihr, wie der Sternenhintergrund so ein bisschen animiert ist? Richtig nice! Okay, den Sternenhintergrund habe ich mit einem zweiten Prompt nachträglich hinzugefügt, aber das hat wunderbar funktioniert – was ja nicht immer der Fall ist. Allerdings habe ich dann gemerkt, dass die Uhrzeit nicht stimmt, aber das konnte ich im Quellcode dann selbst hinbiegen.
Ich finde auf jeden Fall Qwen 3 4B für die Größe wirklich richtig gut. Ist übrigens von Alibaba in China. Und das Ding läuft echt in einer beeindruckenden Geschwindigkeit, weil es so klein ist – weil es halt locker in meinen 24‑Gigabyte‑Grafikspeicher passt. Da kann man auch den Kontext, also das Kurzzeitgedächtnis, richtig hochziehen, und dann kann man da ganz gute Sachen mitmachen.
Andere lokale Open‑Weights‑Sprachmodelle haben mein Uhrzeit‑HTML übrigens auch ganz gut hinbekommen – das ist GPT‑OSS von OpenAI mit 20 Milliarden Parametern, das mit 120 Milliarden Parametern und Mistral Small 3.2 mit 24 Milliarden Parametern.
Wenn ihr gerade genau auf meine Liste mit den Sprachmodellen geguckt habt, dann habt ihr vielleicht gesehen, dass die Zahl der Parameter nicht mit der Gigabyte‑Angabe des Modells korreliert. Hier zum Beispiel: Mistral Small 3.2 hat 24 Milliarden Parameter (die Parameter seht ihr immer in dieser Spalte hier – also 24B steht da für „Billion“ = Milliarden). Das Modell ist aber über ein Gigabyte größer als Qwen 3 Coder 30B – also das mit 30 Milliarden Parametern. Ihr denkt euch vielleicht: Hä, wie kann das denn sein? Das hat mit der sogenannten Quantisierung zu tun.
Statt zum Beispiel jeden Parameter in 32‑Bit‑Gleitkommagenauigkeit zu speichern – was ja in unserem Fall 30 Milliarden × 32 Bit bedeutet – kann man das Ganze auch quantisieren, also vereinfacht gesagt runden: z. B. auf 8 oder sogar 4‑Bit‑Ganzzahlen.
Das hat viele Vorteile – neben weniger Speicherplatz natürlich auch höhere Geschwindigkeit. Aber wenn man zu aggressiv rundet, dann arbeitet das Sprachmodell schlechter. Da wird mit sogenannten K‑Quants gearbeitet, aber das müsst ihr in der Praxis gar nicht wissen.
Ihr müsst nur verstehen, dass es viele Modelle eben in unterschiedlichen Quantisierungsstufen gibt – ihr wisst, was diese Codes da bedeuten.
Guckt mal hier, zum Beispiel bei Qwen 3 Coder 30B: Wenn ihr da in LM Studio auf „Download Options“ klickt, seht ihr die vier Quantisierungsstufen: 3‑Bit, 4‑Bit, 6‑Bit, 8‑Bit. Wenn ihr einen Mac habt, seht ihr sogar noch mehr – nämlich die für MLX optimierten Versionen zusätzlich. Aber ihr sucht auf jeden Fall das aus, was am besten in euren GPU‑Speicher passt. Da zeigt euch LLM Studio auch Icons an – also hier zum Beispiel „vollständiges GPU‑Offloading möglich“ oder eben nicht. Wenn es nicht möglich ist, dann wird’s langsam – geht aber auch.
Wenn ihr dann im Chatfenster das Modell auswählt, sollte LLM Studio direkt automatisch den besten GPU‑Offload einstellen – also wie viel vom Sprachmodell in euren GPU‑Speicher geladen wird. Außerdem könnt ihr das Kontextfenster (oder wie LLM Studio anzeigt: die Kontextlänge) einstellen. Das bedeutet, wie viele Tokens – ein Token ist ungefähr eine Silbe – das Sprachmodell im Kurzzeitgedächtnis halten kann.
Das ist wichtig, wenn ihr mit viel Code herumhantiert, aber auch für RAG – Retrieval Augmented Generation. Also das Generieren ergänzt durch Abrufen, z. B. Abrufen von Informationen. Das klingt jetzt kompliziert, ist aber in der Praxis total super und praktisch. Und es klappt inzwischen auch wirklich gut mit den aktuellen lokalen Modellen.
Ein Beispiel: Ihr habt ein unübersichtliches PDF und wollt da eine bestimmte Info draus haben, aber keine Lust, euch da durchzuquälen.
Dann werft ihr das einfach auf LM Studio. Ich habe hier mal das Programm einer Tagung, wo ich vor vielen Jahren mal einen Vortrag gehalten habe. Dann kann ich einfach schreiben: „Wann findet der Vortrag von Jan-Keno Janssen statt?“ – und dann kriege ich super schnell eine korrekte Antwort. Man kann aber natürlich auch aufwendigere Dinge tun. Zum Beispiel: „Guck dir mal die Vornamen aller Personen an, die da sprechen, und rechne mit ihnen das Geschlechterverhältnis aus.“ Ja, zack – funktioniert. Hätte manuell ewig gedauert.
Klar, das können ChatGPT & Co. in der Cloud auch – aber man will ja vielleicht PDFs analysieren, die man nicht unbedingt im Internet herumschicken will, nicht an OpenAI in die USA. Mit lokalen Modellen bleibt das eben alles lokal – und wenn es auf die Grafikkarte passt, geht’s richtig schnell.
Der Nachteil allerdings: Weil die Modelle eben lokal laufen, können die nicht out of the box im Netz was suchen.
Das geht mit MCP – Model Context Protocol. Darüber haben wir schon ein eigenes Video gemacht, das würde jetzt zu weit führen.
Es ist halt so, dass die kommerziellen Cloud‑LLMs wie ChatGPT, Claude und Gemini inzwischen standardmäßig selbst im Netz suchen.
Das machen unsere lokalen Modelle hier nicht. Deshalb geben die auch auf viele Fragen schlechte oder falsche Antworten.
Als ich zum Beispiel gefragt habe: „Was ist das c’t‑Magazin?“, kam bei einigen eine korrekte Antwort, z. B. bei Mistral Small 3.2 aus Frankreich – aber oft auch richtiger Schrott. Das schon ältere Llama 3.23B sagt zum Beispiel, dass „c’t“ „Cthulu Times" sei. Okay, ja … mhm.
Manchmal sieht die Antwort auf den ersten Blick okay aus, aber dann steht da auf einmal so was wie: „c’t gehört zur Famitsu Publishing Group.“
Okay … Also als lokale Wikipedia, wenn man gerade kein Netz hat, sollte man auf jeden Fall nicht diese kleinen Modelle verwenden. Aber zum Beispiel das GPT‑OSS 120B, von dem hier schon öfter die Rede war, produziert schon ganz gute Fakten.
Wenn ihr in LLM Studio eure installierten Modelle anschaut, könnt ihr mit diesem Ordnersymbol nicht nur die Zahl der Parameter oder Quantisierung sehen, sondern auch Zusatz‑Icons: Der Hammer bedeutet z. B. Tool Use, also Werkzeugbenutzung. Das kann also mit MCP umgehen, z. B. Browser bedienen. (Wie gesagt – eigenes Video dazu.) Und es gibt auch das gelbe Auge: Das bedeutet Vision, also dass das Modell Bilder verstehen kann.
Da war ich echt überrascht, wie gut das klappt. Ich habe z. B. dem nur 12‑Milliarden‑Parameter‑großen Gemma 3 von Google dieses Thumbnail hier gegeben und gesagt: „Roaste den Typen da drauf mal.“ Und dann sagt Gemma 3 sinngemäß: „Schau dir diesen Mann an – er sieht aus wie ein Teddybär, der versucht, einen Gaming‑Stream zu moderieren. In diesem Bart könnte er locker drei Hamster unterbringen ...“ usw.
Also, man kann mit diesen Modellen auch sinnvollere Sachen machen – z. B. sie in Visual Studio Code einbinden, etwa mit der Software Continue oder Cline. Da muss man einfach in VS Code LLM Studio als Provider auswählen und kann dann ein Modell da einladen – und das hilft einem beim Programmieren.
Wenn ihr bis jetzt durchgehalten habt, dann habt ihr vielleicht gemerkt, dass das ein riesiges Thema ist, und ich könnte da stundenlang drüber sprechen. Aber das war jetzt, glaube ich, schon fast zu viel Inhalt für ein Video. Ich sehe das mal als Versuch. Ich gucke, wie das so ankommt bei euch – und wenn ihr da mehr drüber wissen wollt, dann mache ich zu den einzelnen Themen noch einzelne Videos.
Also eben sowas wie: selbstgebauter KI‑Server mit mehreren gebrauchten RTX 3090ern, oder lokale LLMs in einen Code‑Editor einbauen, oder einen eigenen Agenten bauen, der lokal läuft und Webseiten bedienen kann, oder auch, wie man LLMs finetuned. Oder, oder, oder – da gibt’s so viele Themen. Sagt ihr mir einfach, was ihr sehen wollt – und dann machen wir das. Tschüss.
c't 3003 [4] ist der YouTube-Channel von c't. Die Videos auf c’t 3003 sind eigenständige Inhalte und unabhängig von den Artikeln im c’t Magazin. Die Redakteure Jan-Keno Janssen, Lukas Rumpler, Sahin Erengil und Pascal Schewe veröffentlichen jede Woche ein Video.
URL dieses Artikels:
https://www.heise.de/-10864518
Links in diesem Artikel:
[1] https://www.servethehome.com/nvidia-dgx-spark-review-the-gb10-machine-is-so-freaking-cool
[2] https://www.theregister.com/2025/10/14/dgx_spark_review/
[3] https://lmsys.org/blog/2025-10-13-nvidia-dgx-spark/
[4] https://www.youtube.com/channel/UC1t9VFj-O6YUDPQxaVg-NkQ
[5] https://www.heise.de/ct
[6] mailto:jkj@ct.de
Copyright © 2025 Heise Medien
Muss China-Reise mangels Gesprächspartner vertagen: Deutschlands Außenminister Johann Wadephul
(Bild: Juergen Nowak/Shutterstock.com )
Deutschlands Außenminister wollte nach Peking reisen – doch niemand will ihn treffen. Die diplomatische Blamage offenbart den Tiefstand der Beziehungen. Ein Kommentar.
Bundesaußenminister Johann Wadephul hat seine für Sonntag geplante China-Reise kurzfristig abgesagt, nachdem die chinesische Seite ihm praktisch die kalte Schulter zeigte.
Wie das Auswärtige Amt am Freitag mitteilte [1], habe Peking außer einem Gespräch mit Außenminister Wang Yi "keine hinreichenden weiteren Termine" bestätigt.
Die diplomatische Blamage macht das Ausmaß der Eiszeit zwischen Berlin und Peking sichtbar. Es wäre der erste Besuch eines Ministers der neuen Bundesregierung unter Kanzler Friedrich Merz gewesen – nun wird daraus vorerst nichts.
Bereits wenige Stunden vor der Absage hatte Wirtschaftsministerin Katherina Reiche in Kiew einen diplomatischen Protest gegen China angekündigt. "Wir sind hart von der Chip-Knappheit getroffen worden, weil die deutsche Wirtschaft auf diese Chips angewiesen ist", sagte Reiche.
China blockiert seit Monaten Halbleiter-Lieferungen nach Deutschland. Eine Sprecherin des Auswärtigen Amts betonte, es gebe "gerade in diesen Tagen eine Vielzahl von Themen", die man mit der chinesischen Seite besprechen wolle. Besonders Handelsbeschränkungen bei seltenen Erden und Halbleitern bereiteten deutschen Unternehmen "große Sorgen".
Die Spannungen haben sich in den vergangenen Monaten kontinuierlich verschärft. Wadephul hatte China wiederholt wegen seiner Haltung zu Taiwan und seinem Verhalten im Südchinesischen Meer kritisiert. Im August warf er Peking vor, Russland "entscheidende" Unterstützung für den Krieg gegen die Ukraine zu leisten.
China reagierte bereits im Vorfeld der nun abgesagten Reise gereizt auf Wadephuls Taiwan-Politik. Außenamtssprecher Guo Jiakun warf dem deutschen Minister vor, "taiwanische Unabhängigkeits-Aktivitäten" zu unterstützen, weil er den Status quo in der Region fordere, ohne dabei eine Unabhängigkeit Taiwans abzulehnen.
Nach dem Ein-China-Prinzip – das auch die Bundesrepublik formell anerkennt – betrachtet Peking Taiwan als integralen Bestandteil des Territoriums der Volksrepublik.
Während Deutschland vor verschlossenen Türen steht, führt die Europäische Kommission ihre Gespräche mit Peking fort. Wie die Behörde am Freitag mitteilte, werden "sowohl persönliche als auch virtuelle technische Treffen auf hoher Ebene" in der kommenden Woche stattfinden.
Eine Sprecherin des Auswärtigen Amts versicherte dennoch, Deutschland sei "weiter sehr daran interessiert", sich "partnerschaftlich zur gesamten Themenpalette auszutauschen". Wadephul wolle sich "sehr bald telefonisch" mit seinem chinesischen Amtskollegen austauschen – ein schwacher Trost.
Die diplomatische Klatsche unterstreicht, wie weit sich die einstigen Partner entfernt haben – und zugleich Chinas wachsendes Selbstbewusstsein auf der diplomatischen Bühne.
Hinzu kommt: Das Reich der Mitte ist bekannt für sein gutes Langzeitgedächtnis. Sicherlich wird man sich noch an das Jahr 2023 erinnern, als Wadephuhls Amtsvorgängerin Xi als Diktator bezeichnet hat [2]. Vor allem aber an Berlins Rückgratlosigkeit angesichts der wiederholten US-amerikanischen Gängeleien [3] im US-chinesischen Handelsstreit, die hierzulande allzu gern mit dem Impetus moralischer Überlegenheit kombiniert wird.
Jetzt, wenn die EU den Kanal nach China für ihre eigenen Zwecke dringend braucht, soll Peking plötzlich spuren. Daraus wurde nichts. Wie man sich bettet, so liegt man, möchte man dem Auswärtigen Amt zurufen.
URL dieses Artikels:https://www.heise.de/-10866440
Links in diesem Artikel:[1] https://www.swissinfo.ch/ger/keine-hinreichenden-termine%3A-wadephul-verschiebt-china-reise/90221912[2] https://www.tagesschau.de/ausland/asien/baerbock-china-118.html[3] https://www.telepolis.de/features/Nexperia-Konflikt-Wenn-Geopolitik-die-Autoproduktion-lahmlegt-10860311.html
Copyright © 2025 Heise Medien
(Bild: Billion Photos / Shutterstock.com)
China reagiert auf niederländische Übernahme mit Exportkontrollen. Europäische Autohersteller rechnen mit Produktionsstopps binnen Tagen.
Die Übernahme des Chipherstellers Nexperia durch die niederländische Regierung hat einen Konflikt ausgelöst, der die globale Automobilproduktion bedroht. China verhängte umgehend Exportkontrollen, die Nexperia den Export aus chinesischen Werken untersagen.
Handelsminister Wang Wentao warnte [1], die Beschlagnahme gefährde die Stabilität der globalen Lieferketten "ernsthaft".
Die niederländische Regierung hatte Mitte Oktober unter Berufung auf ein Notstandsgesetz [2] aus der Zeit des Kalten Krieges die Kontrolle über Nexperia übernommen.
Der Schritt erfolgte nach Warnungen der US-Regierung, die im Juni gefordert hatte, Nexperia-Chef Zhang Xuezheng müsse ersetzt werden. Die Muttergesellschaft Wingtech Technology war 2024 auf die US-Sanktionsliste gesetzt worden.
Washington befürchtete, Nexperia könne nicht unabhängig von seinem chinesischen Eigentümer agieren, berichtete [3] Bloomberg.
Die chinesische Niederlassung von Nexperia erklärte sich jetzt für unabhängig und forderte Mitarbeiter auf, Anweisungen aus den Niederlanden zu ignorieren. "Die Entlassung wird innerhalb der Gerichtsbarkeit Chinas keine rechtliche Wirkung haben", teilte Nexperia China auf WeChat mit [4], nachdem die niederländische Zentrale Vizepräsident John Chang entlassen hatte.
Die niederländische Zentrale wies dies scharf zurück. Man werfe dem suspendierten Geschäftsführer Zhang "unbefugte Handlungen" und die Verbreitung von "Unwahrheiten" vor. Die Behauptungen [5] über eine unabhängige China-Einheit oder dass Mitarbeitern keine Gehälter gezahlt wurden, seien "sachlich falsch und irreführend"
Die Auswirkungen auf die Automobilindustrie könnten dramatisch sein. Chip-Engpässe dürften wichtige Zulieferer innerhalb einer Woche treffen, während sich die Effekte binnen zehn bis 20 Tagen auf die gesamte Branche ausweiten könnten, sagten mit der Angelegenheit vertraute Personen [6] gegenüber Bloomberg.
"Die Situation könnte zu erheblichen Produktionsbeschränkungen, möglicherweise sogar zu Produktionsstillständen in naher Zukunft führen", warnte Hildegard Müller, Vorsitzende des deutschen Automobilverbands VDA.
Die Volkswagen AG richtete eine Taskforce ein, um Risiken in der Lieferkette zu bewerten. Die Robert Bosch GmbH erklärte, ihre Teams stünden in engem Kontakt mit Nexperia und anderen Zulieferern. "Wir hoffen […] auf eine rasche Einigung zwischen den beteiligten Parteien, die dazu beitragen wird, den aktuellen Lieferengpass zu mildern", sagte ein Bosch-Sprecher.
Der französische Zulieferer Valeo vermeldete Fortschritte: Man habe für mehr als 95 Prozent der Komponenten alternative Chips gefunden und validiert, sagte Finanzvorstand Édouard de Pirey [7] laut Bloomberg.
Hunderte von Nexperia-Chips finden sich in einem typischen Fahrzeug, wo sie als elektronische Schalter etwa in Lenkrädern fungieren. Alternative Lieferanten sind Infineon, ON Semiconductor und STMicroelectronics. Der Austausch erfordert jedoch teils langwierige Zertifizierungen für Sicherheitsstandards.
Auch japanische Autohersteller sind betroffen. Nexperia habe seinen Kunden mitgeteilt, Lieferungen seien möglicherweise nicht mehr garantiert, erklärte der japanische Automobilherstellerverband JAMA [8]. Dieser Vorfall werde "schwerwiegende Auswirkungen auf die weltweite Produktion unserer Mitgliedsunternehmen haben", teilte JAMA mit.
Klaus Schmitz von der Unternehmensberatung Arthur D. Little ordnete gegenüber Bloomberg ein:
Gemessen am Volumen gehört Nexperia zu den drei bis fünf weltweit führenden Anbietern dieser Komponenten. Daher stellt die Substitution eine erhebliche Herausforderung für die gesamte Wertschöpfungskette dar.
Auch US-Autobauer seien über kleinere Teile- und Elektronikhersteller potenziell betroffen, sagten Informanten gegenüber Bloomberg.
An den chinesischen Börsen sorgt der Fall für Unruhe. Die Aktie von Wingtech fiel im Oktober um rund 12 Prozent.
Mindestens sieben in Shanghai und Shenzhen notierte Unternehmen wurden von Investoren zu Risiken aus ihren Europa-Engagements befragt, berichtete [9] die South China Morning Post.
Die verschlechterte Stimmung zwischen Chinesen und Europäern könnte mitunter auch negative Folgen in Europa zeitigen. Wenn chinesische Investitionen in Europa nicht mehr sicher sind, könnten Kooperationen in den Niederlanden, Luxemburg, Deutschland, Frankreich und Italien scheitern.
URL dieses Artikels:https://www.heise.de/-10860311
Links in diesem Artikel:[1] https://www.mofcom.gov.cn/xwfb/bldhd/art/2025/art_0474a42e2c0a4b4ea4c0bdab152116ae.html[2] https://www.heise.de/tp/features/Niederlande-entreissen-China-Kontrolle-ueber-Schluessel-Chiphersteller-10751877.html[3] https://www.bloomberg.com/news/articles/2025-10-14/dutch-seized-nexperia-after-us-demanded-ouster-of-chinese-ceo[4] https://www.scmp.com/tech/tech-war/article/3330152/nexperia-china-defies-dutch-head-offices-order-remove-veteran-chinese-executive[5] https://www.bloomberg.com/news/articles/2025-10-20/nexperia-s-china-unit-says-staff-can-defy-dutch-headquarters[6] https://www.bloomberg.com/news/articles/2025-10-21/europe-auto-industry-braces-for-chip-linked-output-curbs-in-days[7] https://www.bloomberg.com/news/articles/2025-10-24/vw-supplier-secures-nexperia-chip-substitutes-in-china-standoff[8] https://www.bloomberg.com/news/articles/2025-10-23/nexperia-warns-japanese-automakers-supply-no-longer-guaranteed[9] https://www.scmp.com/tech/article/3330059/nexperia-seizure-chinese-investors-grill-companies-european-units-after-dutch-move
Copyright © 2025 Heise Medien
Künstlerische Interpretation der präkolumbianischen Stadt Cahokia
Forscher datieren Höhepunkt und Niedergang der größten Stadt Nordamerikas vor Kolumbus. Dabei half ihnen ein 180 Kilometer weit transportierter Baumstamm.
Ein Team der University of Arizona hat mithilfe modernster Datierungstechniken neue Erkenntnisse über die präkolumbische Stadt Cahokia [1] gewonnen, die einst Zentrum der nordamerikanischen Missisipi-Kultur war.
Die Forscher untersuchten einen massiven Holzpfahl, der um 1124 nach Christus gefällt und über mindestens 180 Kilometer zur Siedlung transportiert wurde, wie sie in der Fachzeitschrift PLOS One berichten [2].
Cahokia war um 1050 nach Christus zur größten Stadt nördlich von Mexiko angewachsen. Mit etwa 20.000 Einwohnern übertraf die Metropole am Mississippi sogar das damalige London oder Paris. Die Siedlung erstreckte sich über die fruchtbare Flussebene im heutigen Illinois und bildete das politische, wirtschaftliche und zeremonielle Zentrum der Mississippian-Kultur.
"Cahokia war extrem einflussreich in der Geschichte Nordamerikas und ein einzigartiges Phänomen als erste Stadt nördlich des heutigen Mexiko", erklärte Dr. Nicholas Kessler, der das Forschungsteam leitet. Der größte der 120 Erdhügel, Monks Mound, sei die größte Erdkonstruktion der westlichen Hemisphäre gewesen.
Die Bewohner Cahokias errichteten massive Markierungspfähle aus Baumstämmen, die sie in der Nähe wichtiger Gebäude, auf Pyramidenhügeln und in Plätzen aufstellten. Diese Pfähle dienten verschiedenen zeremoniellen Zwecken und galten als heilig, wie Kessler ausführte.
"Für viele waren die Pfähle selbst mächtig oder heilig, und für einige waren die Pfähle Personen oder Vorfahren", sagte der Forscher. Sie hätten als "axis mundi" fungiert und die obere, mittlere und untere Welt physisch verbunden.
Der untersuchte Mitchell-Pfahl ist der größte jemals gefundene Markierungspfahl. Heute misst er noch 3,5 Meter Länge bei einem Gewicht von einer Tonne. Ursprünglich war er vermutlich 18 Meter hoch und wog zwischen vier und fünf Tonnen.
Die Radiokohlenstoffdatierung ergab, dass der etwa 194 Jahre alte Baum um 1124 nach Christus gefällt wurde. Strontium-Isotopen-Analysen zeigten, dass die Sumpfzypresse aus dem südlichen Missouri, nördlichen Arkansas, westlichen Tennessee oder südlichen Illinois stammte – mindestens 180 Kilometer von Cahokia entfernt.
"Was den Transport der Pfähle angeht, sind wir uns nicht sicher, das ist eine Frage für weitere Studien", räumte Kessler ein. Als wahrscheinlichste Methode sehen die Forscher den Wassertransport über den Mississippi.
"Der Pfahl besteht aus Sumpfzypresse und wäre in den Niederungen gewachsen, sodass ein Wasserweg bequem und effizient gewesen wäre", erklärte er. Alternativ könnte der Transport über Landwege erfolgt sein, die Cahokia mit umliegenden Gemeinden verbanden.
Ein Vergleich sei das Chaco Canyon, wo hunderte Baumstämme aus bis zu 80 Kilometer Entfernung für spektakuläre Bauten herangeschafft wurden.
Die Datierung des Mitchell-Pfahls fällt in die Zeit des regionalen politischen und wirtschaftlichen Höhepunkts Cahokias. Der Zeitpunkt der Beschaffung entspricht dem Intervall, in dem der Bau von Erd- und Holzmonumenten seinen Höhepunkt erreichte und exotische Materialien am häufigsten in und um Cahokia zu finden waren.
Unter der Annahme, dass der Pfahl ein bis zwei Generationen stand, bevor natürlicher Verfall ihn zum Brechen brachte, wäre er bis etwa 1150 bis 1175 nach Christus aufrecht gestanden. Dieser Zeitrahmen entspricht der indirekten Datierung nahegelegener zeremonieller Gebäude, die aufgegeben wurden.
Um 1200 nach Christus war Cahokias Bevölkerung drastisch geschrumpft und der monumentale Bau eingestellt. Keine neuen Markierungspfähle wurden nach dieser Zeit mehr errichtet. Der Mitchell-Pfahl steht damit sowohl als Symbol für den Höhepunkt der Stadt als auch als stummer Zeuge ihres Falls.
Die Forschungsergebnisse zeigen, wie fortschrittliche wissenschaftliche Techniken wie die Radiokohlenstoff-Datierung von Baumringen und Isotopen-Kartierung das Verständnis der antiken Zivilisationen Nordamerikas neu schreiben.
Durch die Verknüpfung hölzerner Artefakte mit spezifischen Jahren und Orten können Forscher nun präzisere Zeitpläne kultureller Expansion, Handels und Niedergangs erstellen.
URL dieses Artikels:https://www.heise.de/-10853726
Links in diesem Artikel:[1] https://de.wikipedia.org/wiki/Cahokia[2] https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0333783
Copyright © 2025 Heise Medien
(Bild: JHVEPhoto/Shutterstock.com)
Der AWS-Ausfall Anfang der Woche hat viele Internet-Dienste lahmgelegt. Amazon hat nun einen vollständigen Bericht veröffentlicht.
Der Ausfall von Amazons AWS-Cloud-Diensten am Monta [1]g dieser Woche bereitete nicht nur IT-Experten schlaflose Nächte, sondern etwa auch Besitzern von vernetzten Matratzen [2]. Nun haben Amazons Techniker eine vollständige Analyse der Vorfälle veröffentlicht, die erklärt, wie es zu so weitreichenden Störungen kommen konnte.
Bereits der Titel der Amazon-Analyse [3] weist auf einen Single-Point-of-Failure: "Zusammenfassung der Amazon DynamoDB-Dienst-Störung in der Region Nord Virginia (US-EAST-1)". Der dort aufgetretene Fehler sorgte nicht nur für Ausfälle von Amazon-Diensten wie Streaming mit Prime oder Amazon Music, sondern legte etwa den Messenger Signal über Stunden lahm [4]. Umso spannender ist, wie es dazu kommen konnte.
Während die Techniker bei Wiederherstellung des Normalbetriebs, den Amazon [5] gegen kurz nach Mitternacht zum Dienstag, 21. Oktober, verkündete, bereits eine erste knappe Zusammenfassung des Vorfalls bereitgestellt haben, geht die jetzige Analyse deutlich in die Tiefe. Aus Amazons Sicht hat sich die Fehlerkaskade in drei Etappen abgespielt. Zwischen 8:48 Uhr mitteleuropäischer Sommerzeit am 20. Oktober 2025 und 11:40 Uhr lieferte Amazons DynamoDB erhöhte Fehlerraten bei API-Zugriffen in der Region Nord Virginia (US-EAST-1). Das war laut Amazon die erste Phase der Störung.
Die zweite Phase folgte zwischen 14:30 Uhr und 23:09 Uhr, während der der Network Load Balancer (NLB) erhöhte Verbindungsfehler bei einigen Load Balancern in Nord Virginia aufwies. Dies ging auf Health-Check-Fehler in der NLB-Flotte zurück, die zu diesen erhöhten Verbindungsfehlern führten. Zudem kam die dritte Phase von 11:25 Uhr bis 19:36 Uhr, in der das Starten neuer EC2-Instanzen nicht klappte. Bei einigen der EC2-Instanzen, die ab 19:37 Uhr anliefen, kam es jedoch zu Verbindungsproblemen, die ihrerseits bis 22:50 Uhr andauerten.
Die Probleme mit der DynamoDB erklärt Amazon mit "einem latenten Defekt" im automatischen DNS-Management, wodurch die Namensauflösung der Endpunkte für die DynamoDB fehlschlug. "Viele der größten AWS-Dienste stützen sich in hohem Ausmaß auf DNS, um nahtlose Skalierbarkeit, Fehlerisolierung und -behebung, geringe Latenz und Lokalität zu gewährleisten. Dienste wie DynamoDB verwalten Hunderttausende von DNS-Einträgen, um eine sehr große heterogene Flotte von Load Balancern in jeder Region zu betreiben", schreiben die Techniker. Automatisierung ist nötig, um zusätzliche Kapazitäten hinzuzufügen, sofern sie verfügbar sind, und um etwa korrekt mit Hardwarefehlern umzugehen. Zwar sei das System auf Resilienz ausgelegt, jedoch war die Ursache für die Probleme eine latente Race-Condition im DynamoDB-DNS-Management-System, die in einen leeren Eintrag für den regionalen Endpunkt "dynamodb.us-east-1.amazonaws.com" mündete. Interessierte erhalten in der Analyse dazu einen tiefen Einblick in die DNS-Management-Struktur.
Sowohl der eigene als auch der Traffic von Kunden, die auf DynamoDB aufsetzen, war davon betroffen, da diese mangels korrekter Namensauflösung nicht mehr zu der DynamoDB verbinden konnten. Um 9:38 Uhr haben die ITler den Fehler im DNS-Management gefunden. Erste temporäre Gegenmaßnahmen griffen um 10:15 Uhr und ermöglichten die weitere Reparatur, sodass gegen 11:25 Uhr alle DNS-Informationen wiederhergestellt wurden.
Die EC2-Instanzen starteten ab 8:48 Uhr nicht mehr, da dieser von sogenannten DropletWorkflow Manager (DWFM) auf verschiedene Server verteilt werden. Die DWFM überwachen den Status der EC2-Instanzen und prüfen, ob etwa Shutdown- oer Reboot-Operationen korrekt verliefen in sogenannten Leases. Diese Prüfungen erfolgen alle paar Minuten. Dieser Prozess hängt jedoch von der DynamoDB ab und konnte aufgrund deren Störung nicht erfolgreich abschließen. Statusänderungen benötigen einen neuen Lease. Die DWFM versuchten, neue Leases zu erstellen, die jedoch zwischen 8:48 Uhr und 11:24 Uhr zunehmend in Time-Outs liefen. Nachdem die DynamoDB wieder erreichbar war, konnten die EC2-Instanzen jedoch mit dem Fehler "insufficient capacity errors" nicht starten. Das Backlog der ausstehenden Leases erzeugte einen Flaschenhals, sodass neue Anfragen dennoch in Time-Out-Situationen kamen. Gegen 14:28 Uhr konnten die DWFM alle Leases zu allen Droplets genannten Instanzen wieder herstellen, nachdem Neustarts der DWFMs die Warteschlangen geleert hatte. Aufgrund einer temporären Anfragendrosselung, die die IT-Mitarbeiter zur Reduktion der Gesamtlast eingerichtet hatten, kam es jedoch etwa zu Fehlermeldungen der Art "Request limit exceeded".
Die Droplets/EC2-Instanzen erhalten von einem Network Manager Konfigurationsinformationen, die ihnen die Kommunikation mit anderen Instanzen in der gleichen Virtual Private Cloud (VPC), mit VPC-Appliances und dem Internet erlaubt. Die Verteilung hatte durch die Probleme mit den DWFM ein großes Backlog erzeugt. Ab 15:21 Uhr kam es dadurch zu größeren Latenzen. Zwar starteten neue EC2-Instanzen, sie konnten mangels gültiger Netzwerkkonfigurationen jedoch nicht im Netzwerk kommunizieren. Das haben die ITler gegen 19:36 Uhr in den Griff bekommen, sodass EC2-Starts wieder "normal" verliefen.
Die Network Load Balancer (NLB) von AWS nutzen ein Überwachungssystem (Health-Check-System). Sie umfassen Lastverteilung-Endpoints und verteilen Traffic auf die Backend-Systeme, bei denen es sich typischerweise um EC2-Instanzen handelt. Das Health-Check-System überprüft regelmäßig alle NLB-Knoten und entfernt alle Systeme, die dabei als "ungesund" auffallen. Die Prüfungen schlugen bei der Störung jedoch zunehmend fehl, da die vom Health-Check-System neu gestarteten EC2-Instanzen keinen Netzwerk-Status melden konnten. Die Prüfungen schlugen in einigen Fällen fehl, obwohl NLB-Knoten und die Backend-Systeme korrekt funktionierten. Die Ergebnisse der Prüfung lieferten abwechselnd korrekten Status und Fehler zurück, wodurch NLB-Knoten und Backend-Systeme aus dem DNS entfernt wurden, um beim nächsten erfolgreichen Durchlauf wieder hinzugefügt zu werden. Das fiel in der Netzwerküberwachung gegen 15:52 Uhr auf.
Die Last im Health-Check-System stieg durch die alternierenden Prüfergebnisse an, wodurch es langsamer wurde und Verzögerungen bei Health-Checks auftraten. Dadurch wurden schließlich Load-Balance-Kapazitäten reduziert, da diese außer Dienst gestellt wurden. Dadurch kam es zu vermehrten Verbindungsfehlern von Anwendungen, wenn die übriggebliebene noch laufende Kapazität nicht zum Verarbeiten der Anwendungslast ausreichte. Um 18:36 Uhr hat das IT-Team die automatischen Prüfungen für die NLB deaktiviert, wodurch alle verfügbaren, noch in Funktion befindlichen NLB-Knoten und Backend-Systeme wieder in Dienst gestellt werden konnten. Nachdem auch die EC2-Systeme sich erholt hatten, konnten die Health-Checks gegen 23:09 Uhr wieder aktiviert werden.
Im Weiteren erörtert Amazon noch, wie von den gestörten Hauptsystemen abhängige Amazon-Services der zeitliche Störungsverlauf aussah. Das IT-Team will einige Änderungen als Folge der größeren Cloud-Störungen umsetzen. Etwa der DynamoDB "DNS Planner" und "DNS Enactor"-Automatismus wurde weltweit deaktiviert. Das soll so bleiben, bis unter anderem die aufgetretene Race-Condition gelöst wurde. Die Network Load Balancer sollen eine Geschwindigkeitskontrolle erhalten, die begrenzt, wie viele Kapazitäten ein einzelner NLB nach fehlschlagenden Health-Checks entfernen kann. Für die EC2-Systeme entwickelt Amazon zusätzliche Test-Suites, um etwa den DWFM-Workflow zu analysieren und künftige Regressionen zu vermeiden.
URL dieses Artikels:
https://www.heise.de/-10848208
Links in diesem Artikel:
[1] https://www.heise.de/news/Amazon-Web-Services-Globale-Stoerung-10778963.html
[2] https://www.heise.de/news/Smarte-Matratze-nicht-schlau-Unbrauchbar-ohne-AWS-10807405.html
[3] https://aws.amazon.com/de/message/101925/
[4] https://www.heise.de/news/Messenger-App-Signal-offenbar-weltweit-mit-Stoerungen-10778899.html
[5] https://www.heise.de/news/Amazon-Web-Services-AWS-wieder-im-Normalbetrieb-10789249.html
[6] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[7] mailto:dmk@heise.de
Copyright © 2025 Heise Medien
(Bild: AFANASEV IVAN/Shutterstock.com)
Sicherheitsupdates lösen IT-Sicherheitsprobleme in Atlassian Confluence Data Center und Jira Data Center.
Admins von Atlassian-Software sollten zeitnah Confluence Data Center und Jira Data Center auf den aktuellen Stand bringen. Geschieht das nicht, können Angreifer an zwei Sicherheitslücken ansetzen, um Systeme zu attackieren.
Eine Schwachstelle (CVE-2025-22167 "hoch") betrifft Jira Software Data Center und Jira Software Server. An dieser Stelle können Angreifer im Zuge einer Path-Traversal-Attacke unrechtmäßig auf Daten zugreifen. In einer Warnmeldung versichern die Entwickler [1], dass sie die Lücke in den Versionen 9.12.28, 10.3.12 und 11.1.0 geschlossen haben.
Die Schwachstelle (CVE-2025-22166 "hoch") in Confluence Data Center dient einem Beitrag zufolge [2] als Ansatzpunkt für DoS-Attacken. An dieser Stelle schaffen die Ausgaben 8.5.25, 9.2.7 und 10.0.2 Abhilfe.
Auch wenn es noch keine Berichte zu laufenden Angriffen gibt, sollten Admins mit der Installation der Sicherheitsupdates nicht zu lange warten.
URL dieses Artikels:
https://www.heise.de/-10851118
Links in diesem Artikel:
[1] https://jira.atlassian.com/browse/JSWSERVER-26552
[2] https://jira.atlassian.com/browse/CONFSERVER-100907
[3] https://aktionen.heise.de/heise-security-pro?LPID=39555_HS1L0001_27416_999_0&wt_mc=disp.fd.security-pro.security_pro24.disp.disp.disp
[4] mailto:des@heise.de
Copyright © 2025 Heise Medien
(Bild: janews/Shutterstock.com)
Im September hat Adobe Updates für Commerce und Magento veröffentlicht, die eine kritische Lücke schließen. Die wird nun angegriffen.
Für eine kritische Sicherheitslücke in Adobes Shop-Systemen Commerce und Magento stehen seit September Updates [1] zum Schließen bereit. Die sollten Admins zügig installieren – Attacken auf die Schwachstellen laufen inzwischen.
Adobe hat die Sicherheitsmitteilung [2] zur Schwachstelle inzwischen angepasst und ergänzt, dass das Unternehmen von Angriffen im Internet auf die Lücke weiß. Richtig konkret wird das Unternehmen bei der Schwachstellenbeschreibung nicht, sondern zieht sich abstrakt auf "Common Weakness Enumeration"-Einordnung der Probleme zurück. Demnach handelt es sich um eine unzureichende Eingabeprüfung (Improper Input Validation, CWE-20), die zur Umgehung von Sicherheitsfunktionen führt (CVE-2025-54236, CVSS 9.1, Risiko "kritisch"). Im zugehörigen CVE-Eintrag [3] findet sich der konkretere Hinweis, dass "erfolgreiche Angreifer das missbrauchen können, um Sessions zu übernehmen". Nutzerinteraktion ist zum Missbrauch nicht nötig.
Eine technisch tiefergehende Analyse findet sich bei NullSecurityX [4]. Es handelt sich um eine Deserialisierungs-Schwachstelle, die die IT-Forscher "SessionReaper" genannt haben. "Diese Schwachstelle ermöglicht es nicht authentifizierten Angreifern, REST-, GraphQL- oder SOAP-API-Endpunkte auszunutzen, was zu einer Übernahme der Sitzung oder unter bestimmten Bedingungen (etwa dateibasierter Session-Speicher) zur Ausführung von Code aus dem Netz (RCE) führen kann", erörtern sie dort.
Die IT-Analysten von Sansec haben nun seit Mittwoch aktive Angriffe auf die Sicherheitslücke "SessionReaper" beobachtet. Den Autoren des Sicherheitsberichts zufolge [5] haben derzeit lediglich 38 Prozent der Adobe-Commerce und -Magento-Stores die Sicherheitsupdates installiert – mehr als 60 Prozent der Shops sind damit noch verwundbar. IT-Sicherheitsforscher von Assetnote haben eine Analyse [6] des Patches vorgelegt und die Deserialisierungslücke darin vorgeführt.
Erste Angriffe haben die IT-Forscher bereits beobachtet, Proof-of-Concept-Exploits sind öffentlich verfügbar. Daher rechnen die Analysten damit, dass nun massive Angriffe bevorstehen. Cyberkriminelle nehmen den Exploit-Code in ihre Werkzeugkästen auf und scannen das Netz automatisiert nach verwundbaren Instanzen. IT-Verantwortliche sollten die von ihnen betreuten Magento- und Commerce-Shops umgehend mit den bereitstehenden Aktualisierungen versorgen.
URL dieses Artikels:
https://www.heise.de/-10845752
Links in diesem Artikel:
[1] https://www.heise.de/news/Patchday-Adobe-Luecken-in-Acrobat-Co-koennen-Schadcode-auf-PCs-lassen-10639095.html
[2] https://helpx.adobe.com/security/products/magento/apsb25-88.html
[3] https://nvd.nist.gov/vuln/detail/CVE-2025-54236
[4] https://nullsecurityx.codes/cve-2025-54236-sessionreaper-unauthenticated-rce-in-magento
[5] https://sansec.io/research/sessionreaper-exploitation
[6] https://slcyber.io/assetnote-security-research-center/why-nested-deserialization-is-still-harmful-magento-rce-cve-2025-54236/
[7] https://aktionen.heise.de/heise-security-pro?LPID=39555_HS1L0001_27416_999_0&wt_mc=disp.fd.security-pro.security_pro24.disp.disp.disp
[8] mailto:dmk@heise.de
Copyright © 2025 Heise Medien
Für Maker ist Ikea eine Fundgrube für kreative Hacks und Projekte. Welche Unikate daraus entstehen können, verraten wir in der Make 6/25.
Ikea-Produkte sind ein toller Ausgangspunkt für eigene Projekte. Denn mit kleinen Anpassungen lässt sich meist noch mehr aus ihnen herauskitzeln. So wird ein Bror-Servierwagen in wenigen Schritten zu einer praktischen Arbeitsfläche in der Werkstatt oder ein Förnuftig-Luftfilter zu einer Absaugstation für Lötdämpfe. Das funktioniert oft auch mit einfachem Werkzeug und ohne 3D-Drucker – etwa wenn man sich eben mal einen coolen Joystick für Retrospiele aus einer Glis-Kiste bauen möchte.
In dem Make-Sonderheft 6/25 dreht sich alles um kreative Ikea-Hacks. Die Bandbreite der Projekte reicht von dekorativen Lichtinstallationen bis hin zu smårten Lösungen. So zeigen wir, wie man eine elegante Ladestation baut, ein Glasgewürzregal in eine fluoreszierende Leuchte verwandelt oder die ikonische Ikea-Tragetasche Frakta verbessert. Besonders praktisch ist der automatische Wasserstopp, der erkennt, ob gerade Wasser den Wohnraum flutet, und daraufhin den Hahn abdreht. Die selbstgebaute Arbeitsecke fürs Ivar-Regal schafft schnell Platz für Maker-Projekte, wo eigentlich keiner ist. Und wer sein Ikea-Smarthome flexibel konfigurieren möchte, lernt ebenso, wie sich ein ZigBee-Gateway auf Raspberry-Pi-Basis bauen lässt. Wir wünschen viel Spaß beim Hacken!

Die Ausgabe 6/25 ist online und am Kiosk erhältlich. Mit einem unserer Abos [6] lag das Heft sogar bereits im Briefkasten. Außerdem können Sie die Make bequem als Printversion oder PDF im Heise Shop [7] bestellen – bis zum 1.11. sogar versandkostenfrei. Wenn Sie die Make lieber digital lesen, können Sie das in unseren Apps für iOS [8] und Android [9]. Online finden Sie auch das Inhaltsverzeichnis der Make 6/25 [10].
URL dieses Artikels:
https://www.heise.de/-10818952
Links in diesem Artikel:
[1] https://www.heise.de/bilderstrecke/4962386.html?back=10818952;back=10818952
[2] https://www.heise.de/bilderstrecke/4962386.html?back=10818952;back=10818952
[3] https://shop.heise.de/make-sonderheft-2025-ikea-hacks/print?wt_mc=intern.shop.shop.make-ikea-hacks.dos.link.link
[4] https://www.heise.de/select/make/2025/6
[5] https://www.mykiosk.com/suche/23141/make-
[6] https://shop.heise.de/zeitschriften-abo/Make/Miniabo/?LPID=42292_MA000009_30980_3_57&wt_mc=intern.abo.make.ma_ea_2025.ticker-1.link.link
[7] https://shop.heise.de/make-sonderheft-2025-ikea-hacks/print?wt_mc=intern.shop.shop.make-ikea-hacks.ticker-1.link.link
[8] https://apps.apple.com/de/app/ct-hardware-hacks/id521645889
[9] https://play.google.com/store/apps/details?id=de.heise.android.ch.magazin&hl=de
[10] https://www.heise.de/select/make/2025/6
[11] https://www.heise.de/make
[12] mailto:akf@make-magazin.de
Copyright © 2025 Heise Medien

Der Schuhhersteller Nike arbeitet aktuell an einem ungewöhnlichen Projekt: Project Ampflify ist ein Schuhaufsatz mit Servomotoren und Microcontroller. Wie ein Exoskelett wird er am Bein befestigt und unterstützt Menschen beim Gehen und Laufen. Das Ziel: Möglichst vielen Hobbyathleten einen Boost bei ihrem Workout zu geben.
"Dadurch wird es für den Alltagssportler einfacher, öfter und länger zu gehen oder zu laufen und dabei mehr Spaß zu haben" , teilte Nike mit . "Bringen Sie mehr Bewegung in ihr Leben, verlängern Sie ihren Arbeitsweg zu Fuß oder haben sie Freude daran, noch ein oder zwei Meilen mehr zu laufen."
Project Amplify besteht aus zwei Komponenten. Der Aufsatz selbst wird über integrierte Servomotoren gesteuert und erhält seine Energie aus einem wiederaufladbaren Akku. Dieser befindet sich in der oberen Wadenschnalle, die um das Bein gewickelt wird. Amplify unterstützt also nur die Fußgelenke und nicht das komplette Bein. In das Gestell passt ein speziell angepasster Nike-Laufschuh, der mit Carbonfaser verstärkt ist. Beide Komponenten können voneinander getrennt werden, so dass der Schuh auch ohne die Gehhilfe nutzbar ist.
Das System richtet sich nicht an Topathleten, sondern Hobbysportler. So ist es laut Nike etwa möglich, einen Kilometer in sechs statt statt sieben Minuten zu laufen oder alternativ einfach drei oder vier Kilometer mehr aus einem Joggingtrip herauszuholen. Diese Zahlen zieht der Hersteller aus Tests mit 400 Sportlern, die 12.000 Runden auf einer Rennstrecke absolvierten. Dabei wurden bisher neun Versionen des Project Amplify ausprobiert.
Nike zieht dabei Parallelen zum E-Bike-Trend, durch den Fahrradfahren mehr Menschen zugänglich gemacht worden sei. Das will Nike auch mit der durch Motoren unterstützten Beinschiene erreichen. Wann Project Amplify als fertiges Produkt verfügbar ist, teilte der Hersteller noch nicht mit. Bisher sei es noch in der Testphase. Ein Launch sei für die kommenden Jahre geplant.

Professionelle Investoren versuchen Wege zu finden, um von den steigenden Bewertungen von KI-Unternehmen zu profitieren, ohne dabei ein zu hohes Risiko eingehen zu müssen. Wie Reuters berichtet , setzen sie dabei auf eine Strategie, die bereits in der Dotcom-Ära angewandt wurde.
"Wir machen das, was von 1998 bis 2000 funktioniert hat" , erklärte Francesco Sandrini, der für Italien zuständige CIO der französischen Vermögensverwaltung Amundi, gegenüber Reuters. Man suche dabei nach Unternehmen mit hohen Wachstumschancen, die der Markt bisher übersehen habe, führt er aus.
Durch Wetten auf angemessen bewertete Unternehmen, die als Nächstes einen Aufschwung erleben könnten, hofft er Gewinne zu erzielen. Mögliche Investmentgelegenheiten sieht er dabei in Software-Unternehmen, dem Bereich der Robotik und asiatischer Technologie.
Sandrini sieht zwar auch Anzeichen für eine irrationale Überschwänglichkeit an der Wall Street und hob dabei den Handel mit riskanten Optionen, die an den Aktienkurs großer KI-Unternehmen gekoppelt sind, hervor. Er geht aber dennoch davon aus, dass die Begeisterung für neue Technologien anhalten werde.
Simon Edelsten, CIO des in London ansässigen Goshawk Asset Management, sagte zu Reuters: "Die Wahrscheinlichkeit, dass dies (der KI-Boom) ein Reinfall wird, ist sehr hoch, da Unternehmen Billionen ausgeben und alle um denselben Markt kämpfen, der noch nicht existiert." Er erwartet, dass sich die Begeisterung für KI auf verwandte Sektoren ausbreite und damit die eine neue Phase eingeleitet werde.
Diese Verhalten spiegelt das Ergebnis einer Ökonomie-Studie wider, laut der Hedgefonds meist nicht gegen die Dotcom-Blase wetteten, sondern den Markt der Jahre 1998 bis 2000 geschickt ausnutzten, um ihre Gewinne zu erhöhen und Verluste rechtzeitig vor dem Abschwung zu vermeiden.
"Selbst im Jahr 2000, als der Höhepunkt erreicht war, konnten die Schnellsten gute Gewinne erzielen" , sagte Edelsten zu Reuters und fügte hinzu, dass das aktuelle Marktumfeld dem von 1999 sehr ähnele .

Endlich dürfen auch Smartphones nachts zur Ruhe kommen – und zwar ordentlich: Ikea hat ein winziges Bettchen vorgestellt, das fürs Smartphone gedacht ist. Die Phone Sleep Collection, so der halbernste Name, besteht aus einem kleinen Holzrahmen mit Kopfkissen, Bettdecke und sogar winzigen Laken.
Das Ganze sieht aus, als wäre es aus der Puppenstube gefallen – nur dass diesmal weder Barbie noch Teddy, sondern das Handy schlafen gelegt wird.
Im dazugehörigen Werbevideo verspricht Ikea nichts Geringeres als "eine Revolution des Schlafs" . Schließlich solle man sein Mobilgerät endlich einmal richtig ins Bett schicken, bevor man selbst zur Ruhe kommt.
"Von den Meistern des Schlafs kommt eine neue Revolution der Erholung" , säuselt der Sprecher mit der Gravitas eines Wellness-Gurus, während ein Smartphone behutsam unter eine Decke geschoben wird.
Hinter dem Spaß steckt durchaus eine ernste Botschaft: weniger Ablenkung, mehr Nachtruhe. Wer sein Smartphone abends ordentlich ins Bett bringt, soll selbst besser schlafen. Das kleine Möbelstück ist damit ein augenzwinkernder Kommentar zur allgegenwärtigen Bildschirmabhängigkeit.
Im Inneren des Mini-Betts steckt ein NFC-Chip, der per App registriert, wie lange das Smartphone "schläft" – also wie viele Stunden es tatsächlich ungenutzt ist.
Wer das Gerät über sieben Nächte hinweg jeweils mindestens sieben Stunden ruhen lässt, kann laut Ikea einen Gutschein gewinnen. Von automatischem Nachtmodus, Lichtdimmung oder Schlafmusik ist dagegen keine Rede.
Das Bettchen ist bislang nur in den Vereinigten Arabischen Emiraten erhältlich, und auch dort nicht frei verkäuflich. Ikea verschenkt es als Aktionsartikel an Kunden, die in einem Markt vor Ort für mindestens 750 Dirham (rund 190 Euro) einkaufen und dabei ein Produkt aus der für Menschen gedachten Complete Sleep Collection erwerben.
Bleibt die Frage, ob Ikea bald auch passende Nachttische in Telefongröße anbietet – oder eine Smart-Home-Variante, die erkennt, wenn das Handy zu spät ins Bett kommt. Bis dahin dürfen wir auch ohne Möbel sagen: Träum was Schönes, Smartphone!
Nach dem Umstieg auf ein neues iPhone werden nicht immer alle Benachrichtigungseinstellungen für iMessage-Kontakte übernommen. Was tun, wenn einer stumm bleibt?
"Ich habe Dir doch geschrieben", sagt meine Frau immer, doch Ihre Nachrichten über iMessage scheinen mich nicht zu erreichen, zumindest vibrieren bei mir weder iPhone noch Apple Watch. Meine Geräte betreibe ich standardmäßig stumm geschaltet, ich werde also nur per Vibrationssignal alarmiert. In der Nachrichten-App selbst tauchen die Botschaften meiner Frau dann aber komischerweise auf. Was mache ich falsch? Mit einem alten iPhone, das ich kürzlich gegen ein neues ausgetauscht habe, war alles okay.
Das Problem betraf auch ein neues iPhone in der Mac & i-Redaktion – und den Betroffenen machte das wahnsinnig.
Benachrichtigungen aus- und wieder einschalten, eigene Einstellungen für die Apple Watch und das iPhone vornehmen, Geräte neu starten – all das half nichts: Der eine Kontakt wollte bei neuen iMessage-Botschaften keine Vibration auslösen, alle anderen funktionierten wie gewohnt. Auch hier trat das Problem erst nach einem Gerätewechsel auf.
Bei unserem Gerät war iOS 18 betroffen, der Fehler scheint aber auch unter iOS 26 noch aufzutreten.
Als Lösung dieses Rätsels erwies sich schließlich ein Konfigurationsproblem. Denn der Kontakt, der plötzlich nicht mehr signalisiert wurde, war vor Jahren mit einem händisch konfigurierten Vibrationsmuster versehen worden, um die Person schneller zu erkennen – der Standardvibrations-"Ton" wurde also verändert.
Denn genauso wie ein Klingelton [1] lässt sich einem Kontakt auch ein spezifisches Vibrationsmuster zuweisen, es gibt hierzu eine ganze Auswahl.
Beim Gerätewechsel von dem älteren auf das neue iPhone wurde jedoch ausgerechnet diese Einstellung nicht übernommen – warum, ist unklar. Durch die fehlende Übernahme des händisch konfigurierten Vibrationsmusters entschied sich iOS dann schlicht, einfach gar keine Vibration abzuspielen – Botschaften des Kontaktes blieben stumm, es erfolgte keinerlei Signalisierung außer der Benachrichtigung auf dem Display, das man nicht ständig betrachtet.
Den vibrationslosen Kontakt können Sie dementsprechend beheben, indem Sie einfach in die Einstellungen des Kontaktes im Adressbuch (auf dem iPhone) gehen und ihm ein neues Vibrationsmuster zuordnen. Das geht über "Bearbeiten" und "Nachrichtenton". Dort scrollen Sie hoch und klicken auf "Haptik". Ist hier "Keine" selektiert, haben Sie das Problem gefunden: Wechseln Sie dann ganz oben auf "Synchronisiert (Standard)" für das Standardvibrationsmuster oder selektieren Sie ein anderes. Auch das Anlegen eines komplett eigenen Musters ist möglich.
Mit dieser Änderung wird übrigens auch die fehlende Signalisierung auf der Apple Watch behoben, da sich auch diese an die Einstellung hält.
URL dieses Artikels:
https://www.heise.de/-10796279
Links in diesem Artikel:
[1] https://support.apple.com/de-de/118402
[2] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[3] https://www.heise.de/mac-and-i
[4] mailto:wre@heise.de
Copyright © 2025 Heise Medien
(Bild: Berti Kolbow-Lehradt)
Dank Matter-Standard sind Saug- und Wischroboter jetzt mit Apples Home-App steuerbar. Im Test zeigen fünf Modelle, wie gut sie sich fürs smarte Zuhause eignen.
Saug- und Wischroboter können in vielen Haushalten den Bodenputz erleichtern. Auf Apple-Geräten ließen sie sich lange Zeit nur über die Hersteller-App oder manuell eingerichtete Siri-Kurzbefehle steuern. Seit iOS, iPadOS und tvOS 18.4 und macOS 15.4 dürfen Saugroboter auch in Apples Home-Plattform einziehen [1] [1]. Das klappt mit allen Geräten, die auf das Kommunikationsprotokoll Matter setzen. Für Smart-Home-Fans, die ihr vernetztes Zuhause mit Apple Home steuern, schließt sich daher nun eine lange beklagte Lücke.
Matter-kompatible Saugroboter lassen sich, wie zertifizierte HomeKit-Geräte, per QR-Code direkt zu Apple Home hinzufügen. Ein Home Hub vermittelt die Steuerbefehle als Matter-Controller im lokalen Netzwerk; alle HomePod-Modelle sowie ein Apple TV ab der 4. Generation können diese Rolle spielen.
Die Mehrheit der Matter-kompatiblen Roboter gehört der kostspieligen Oberklasse an. Wer jüngst ein Topmodell einer einschlägigen Marke gekauft hat, sollte prüfen, ob es nicht schon mit Apple harmoniert oder per Firmware-Update dazu gebracht werden kann. Wer noch vor der Kaufentscheidung steht, achtet außer auf die Matter-Fähigkeiten vor allem auf die Reinigungsfähigkeiten des Roboters. Die fünf Testgeräte Ecovacs Deebot X9 Pro Omni [2] [2], Eufy Omni E28 [3] [3], Roborock Saros Z70 [4] [4], SwitchBot S10 [5] [5] und TP-Link Tapo RV30 Max Plus [6] [6] sind zwar alle kompatibel mit Apple Home, bieten aber unterschiedliche Ausstattungsschwerpunkte (siehe Tabelle). Wir wollten wissen, welche Vorteile die Bedienmöglichkeiten von Apples Home-App bringen. In welchen Fällen kann sie die originale Saugroboter-App ersetzen? Zudem mussten die Geräte unter Praxisbedingungen beweisen, wie gut sie den Boden staubsaugen, feucht wischen, unfallfrei im Zuhause navigieren und durch Selbstreinigungsvorgänge ohne händische Nacharbeit auskommen.
URL dieses Artikels:
https://www.heise.de/-10751677
Links in diesem Artikel:
[1] https://www.heise.de/news/Home-und-Siri-Apple-schiebt-Support-fuer-Saugroboter-ins-naechste-Jahr-10185482.html
[2] https://heise.de/s/kDnAO
[3] https://heise.de/s/zKrYK
[4] https://heise.de/s/AXEnr
[5] https://heise.de/s/eeJ6J
[6] https://heise.de/s/002GK
Copyright © 2025 Heise Medien
(Bild: Sharomka/shutterstock.com)
Wenn der Vorgesetzte darauf hinweist, dass "wir eine große Familie sind", geht es meist nicht um ein bevorstehendes Fest.
Moin.
Wir sind eine große Familie [1], sang Peter Alexander 1973, und mancher Chef holt den Schlager auch heute nochmal heraus. Während das Lied eine Geschmacksfrage ist, lädt der Satz im Firmenkontext dazu ein, aufmerksam zu werden. "Wir sind eine große Familie", sagt der Chef. Klingt super, finde ich. Oder doch nicht?
Auch Familien haben ihre Schattenseiten. So wurden 2023 mehr als 250.000 Menschen das Opfer häuslicher Gewalt. Davon sind mehr als 78.000 Opfer innerfamiliärer Gewalt zwischen nahen Angehörigen. (Quelle: BKA-Lagebild, BMFSFJ [2])
Vermutlich meint mein Chef das nicht, wenn er von Familie spricht, aber was denn dann? Welchen Zweck verfolgt er mit seiner Aussage? Was will er von mir? Welches Verhalten soll meinerseits hervorgerufen werden? Und, last, but not least: Wie gehe ich damit um?
Am liebsten würde ich es bei den Fragen belassen, weil Ihr bestimmt auch eigene Antworten parat habt. Dann wäre der Beitrag allerdings sehr kurz. Deshalb ein Vorschlag: Macht beim Lesen eine Pause, denkt über die Fragen nach und schreibt Antworten in die Kommentare. Danach könnt Ihr meine Antworten lesen. Ich bedanke mich im Voraus für Eure Beiträge.
Zum Zweck der Äußerung: Meine beste Antwort lautet "Bindung". Wer das sagt, möchte andere an sich binden; möglicherweise vor dem Hintergrund einer unangenehmen Aufgabe oder bevorstehenden negativen Veränderung. Zumindest denke ich, dass es nicht nötig ist, bei der Bindung nachzuhelfen, wenn das Arbeitsleben im Augenblick das reinste Paradies ist. Wer sollte dann gehen wollen?
Bindung an sich ist ja nicht so schlecht, allerdings stellt sich eine weitere Frage: Was ist, wenn die wirtschaftliche Lage für die Firma schlechter wird? Wir sind doch eine große Familie, oder? Hier wird doch niemand gefeuert, oder? Wir alle kennen die Wahrheit und das genügt, um die Mär der großen Familie als genau das zu entlarven: ein Märchen. Es gibt Firmen, die eine Ausnahme darstellen, aber dort ist es vermutlich nicht nötig, auf die starke Bindung mit der Familienaussage hinzuweisen.
Damit kommen wir zur wichtigsten Frage: Wie gehe ich damit um? Das hängt natürlich stark vom Einzelfall ab, sodass ich hier keine universelle Antwort anbieten kann. Mein Vorschlag ist, klar zu kommunizieren, wie das, was man gerade hört, ankommt.
Zum Einstieg vielleicht eine Erwiderung der Art: "Wenn ich höre, dass wir eine Familie sind, habe ich den Eindruck/bekomme ich das Gefühl, dass …"
Wenn es um Bindung geht, kann man deutlich machen, dass wir keine Familie sind und Bindung anders funktioniert. Das ist der richtige Zeitpunkt, die eigene Motivation auszusprechen. Was treibt Dich an und was möchtest Du demnächst oder mittelfristig erreichen? Wenn die Wir-sind-eine-Familie-Aussage mit der unangenehmen Aufgabe wie Überstunden für einen längeren Zeitraum verbunden ist, ist es ein guter Zeitpunkt, über Gegenleistungen zu sprechen. Die Palette ist breit gefächert. Man kann über Überstundenausgleich, Sonderurlaub, Fortbildungen oder natürlich Prämien sprechen. Das sind alles persönliche Benefits.
Alternativ kann man auch Veränderung in der Arbeit ansprechen. Geht es beispielsweise darum, dass ein vorgegebener Termin in der Produktentwicklung nicht ohne Überstunden des Teams gehalten werden kann, ist es vielleicht der richtige Zeitpunkt, auf die Ursache einzugehen. Eine mögliche Forderung wäre dann Mitspracherecht bei zukünftigen Terminen. Wozu sollte man für das anstehende Release Überstunden machen, wenn absehbar ist, dass es beim nächsten Release genauso läuft?
In jedem Fall verstehe ich "Wir sind eine Familie" als Einstieg in eine Verhandlung. Wer sie als Person oder als Team nicht nutzt, verschenkt die Chance für eine Verbesserung.
Im Podcast Escape the Feature Factory [4] greife ich ausgewählte Themen des Blogs auf und diskutiere sie mit einem Gast. Durch den Austausch lerne ich eine zweite Perspektive kennen. Wenn Du auch daran interessiert bist, findest Du den Podcast bei Spotify [5], Deezer [6], Amazon Music [7], und Apple Podcasts [8]. Wenn Du die Themen, die ich im Blog anspreche, in Deiner Firma verbessern möchtest, komm' in unsere Leadership-Community [9] für Softwareentwicklung.
URL dieses Artikels:
https://www.heise.de/-9871007
Links in diesem Artikel:
[1] https://youtu.be/TZXjPI27DV4
[2] https://www.bmfsfj.de/bmfsfj/aktuelles/presse/pressemitteilungen/haeusliche-gewalt-im-jahr-2023-um-6-5-prozent-gestiegen-241062
[3] https://alc.inside-agile.de/?wt_mc=intern.academy.dpunkt.konf_dpunkt_ia_alc.empfehlung-ho.link.link
[4] https://kutura.digital/podcast-escape-the-feature-factory/
[5] https://open.spotify.com/show/2fvog24vS5GGQZzo1wrrc6?si=954c15d90bbc48d9
[6] https://deezer.com/show/1001178071
[7] https://music.amazon.de/podcasts/ba452817-2698-42c7-b91c-c72fdb98f934
[8] https://podcasts.apple.com/us/podcast/escape-the-feature-factory/id1773085417
[9] https://kutura.digital/leadership
[10] mailto:rme@ix.de
Copyright © 2025 Heise Medien