Magic Keyboard für iPad Air.
(Bild: Apple)
Es muss nicht immer ein iPad Pro sein: Wer ein Air besitzt, kann es nun mit einer optisch neuen Tastatur- und Trackpad-Kombi ausrüsten.
Apple hat in dieser Woche eine nette Kleinigkeit für Besitzer einer bestimmten iPad-Modellreihe in sein Programm genommen: Das Magic Keyboard für das iPad Air ist künftig nicht mehr nur in weißem Farbanstrich zu haben, sondern auch in Schwarz. Das letzte iPad Air mit M3-Chip [1] war von Apple bereits im März 2025 in insgesamt vier Farben – Spacegrau, Blau, Violett und "Polarstern", ein Goldton – präsentiert worden, bei der Original-Tastatur samt Trackpad gab es jedoch nur eine.
Diese Unschönheit hat Apple nun beseitigt, wie ein Blick in den Apple Online Store offenbart. Sowohl die Variante mit 11 Zoll [2] als auch jene mit 13 Zoll [3] des Magic Keyboard für das iPad Air kommt nun in zwei Farben. Apple nennt sie schlicht "Weiß" und "Schwarz". An der heftigen Bepreisung ändert sich leider nichts: Die M3-Variante der Tastaturhülle kostet für das 11-Zoll-Modell 329 Euro, für die 13-Zoll-Variante werden gar 349 Euro fällig. Das ist im übrigen signifikant mehr, als man für die US-Version – wenn auch ohne Sales Tax, also Umsatzsteuer – zahlt: Die 11-Zoll-Variante kostet dort 269 US-Dollar, die 13-Zoll-Version 319 Dollar.
Die hohe Bepreisung für das Magic Keyboard für das iPad hat Apple leider immer so verfolgt. Angesichts der Kosten für das Tablet selbst wirkt dies überzogen. So kann man das iPad Air M3 mit – allerdings mageren – 128 GByte beim Hersteller bereits für 649 Euro erwerben (11 Zoll), würde dann also nur für Tastatur und Trackpad nochmals über die Hälfte hinzuzahlen müssen. Die Preise halten sich zudem recht lange. Wer sein Magic Keyboard erst später erwirbt – also für bereits ältere Modelle – bekommt auch im Handel nicht viel Rabatt.
Momentan verkauft Apple drei Varianten seiner Tastatur samt Trackpad [4]. Alle heißen Magic Keyboard. Für das iPad Pro (M4 und M5) geht es für die 11-Zoll-Variante bei 349 EUro los. Nutzer des Einsteiger-iPads werden auch nicht geschont: Das Magic Keyboard Folio, das auch Tastatur und Trackpad kombiniert, aber einen ausklappbaren Standfuß benötigt, um nicht umzufallen, steht mit 299 Euro in der Liste.
Das Folio ist zum iPad der 10. und 11. Generation (letztere nennt Apple auch "iPad A16") kompatibel. Apple verkauft das iPad 11 ab 379 Euro mit 128 GByte, auch hier ist der Aufpreis für Tastatur samt Trackpad also mächtig.
URL dieses Artikels:
https://www.heise.de/-10771368
Links in diesem Artikel:
[1] https://www.heise.de/tests/iPad-Air-M3-im-Test-Das-kann-Apples-neues-Mittelklasse-Tablet-10310432.html
[2] https://www.apple.com/de/shop/product/MDFV4D/A/magic-keyboard-f%C3%BCr-das-11-ipad-air-m3-deutsch?afid=p239%7C121977&cid=aos-de-aff-ir
[3] https://www.apple.com/de/shop/product/MDFW4D/A/magic-keyboard-f%C3%BCr-das-13-ipad-air-m3-deutsch?afid=p239%7C121977&cid=aos-de-aff-ir
[4] https://www.apple.com/de/shop/select-ipad-keyboards
[5] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[6] https://www.heise.de/mac-and-i
[7] mailto:bsc@heise.de
Copyright © 2025 Heise Medien
(Bild: Yurchanka Siarhei / Shutterstock.com)
Die Open-Source-Plattform Airbyte erscheint in Version 2.0 mit deutlich höherer Sync-Geschwindigkeit, Data Activation und einem hybriden Enterprise-Ansatz.
Airbyte hat Version 2.0 seiner freien Datenintegrationsplattform veröffentlicht und verspricht damit eine deutliche Beschleunigung der Datenverarbeitung. Nach Angaben der Entwickler synchronisiert die neue Version Daten im Durchschnitt vier- bis sechsmal schneller als bisher, während sie gleichzeitig den Ressourcenverbrauch optimiert. Die Funktion "Faster Sync Speed" ist nun allgemein verfügbar und soll ELT-Prozesse (Extract, Load, Transform) deutlich effizienter gestalten.
Gut ein Jahr nach der Veröffentlichung von Airbyte 1.0 [1] überarbeitet das neue Major Release die Architektur der Open-Source Plattform. Neben der Performance-Steigerung führt Version 2.0 zwei zentrale neue Funktionen ein: Data Activation und Enterprise Flex. Data Activation ermöglicht es Unternehmen, aufbereitete Daten aus ihrem Data Warehouse direkt in operative Systeme wie CRM-Plattformen, Marketing-Tools oder Support-Systeme zurückzuspielen. Damit lassen sich Business-Entscheidungen nicht mehr nur auf Basis von Dashboards und Reports treffen, sondern direkt in den Arbeitstools umsetzen, die Teams täglich nutzen.
Enterprise Flex richtet sich speziell an Unternehmen mit strengen Compliance- und Data-Sovereignty-Anforderungen. Die hybride Architektur kombiniert eine vollständig verwaltete Cloud-Control-Plane mit separaten Data Planes, die Nutzer in ihrer eigenen Infrastruktur betreiben können. Das ist besonders für Organisationen relevant, die aus regulatorischen Gründen – etwa Datenschutz mit der DSGVO – die vollständige Kontrolle über Datenbewegungen behalten müssen, und trotzdem Managed Services einsetzen wollen. Bestehende Airbyte-Cloud-Kunden können auf Enterprise Flex umsteigen.
Der Connector Builder, mit dem Entwickler eigene Konnektoren für APIs und Datenquellen erstellen können, wurde grundlegend überarbeitet. Die Benutzeroberfläche orientiert sich nun stärker an der zugrundeliegenden YAML-Spezifikation, was den Wechsel zwischen UI- und YAML-Modus intuitiver gestalten soll. Nahezu alle Funktionen, die bisher nur im YAML-Modus verfügbar waren, lassen sich nun über die grafische Oberfläche nutzen. Bestehende Custom Connectors migrieren automatisch zur neuen Oberfläche, ohne dass Entwickler eingreifen müssen.
Eine wesentliche Neuerung im Connector Builder ist die vollständige Unterstützung von OAuth-2.0-Flows, einschließlich asynchroner Streams. Jeder Stream lässt sich jetzt mit einer eigenen API-Endpoint-URL und einer individuellen Authentifizierungsmethode konfigurieren – die bisherige globale Konfiguration für Base-URL und Authentifizierung entfällt. Das neue Feld API Endpoint URL ersetzt die vorherigen separaten Felder für URL-Pfad und API-Base-URL. Zudem hat Airbyte die Panels für Parent Streams und Parameterized Requests im neuen Partition Router zusammengeführt. Ein zusätzliches Advanced-Panel macht Funktionen wie Dateitransfers zugänglich, die zuvor nur im YAML-Modus nutzbar waren.
Für Administratoren selbst gehosteter Airbyte-Installationen bringt Version 2.0 eine wichtige Änderung: Es ist die letzte Version, die Helm Chart V1 unterstützt. Ab Version 2.1 wird also Helm Chart V2 zur Pflicht. Neue Deployments sollten daher direkt auf Helm Chart V2 setzen; bestehende Installationen sollten zeitnah migrieren, um künftige Updates nicht zu blockieren. Die Airbyte-Dokumentation bietet separate Migrations-Guides für Core [2] und Self-Managed Enterprise [3]. Wer Airbyte mit dem Tool abctl einrichtet, muss vor dem Upgrade auf Version 2.0 zunächst auf abctl Version 0.30.2 aktualisieren.
Die Benutzeroberfläche für Organisationen und Workspaces haben die Entwickler ebenfalls neu strukturiert. Die Navigationsleiste trennt nun klar zwischen Organisations- und Workspace-Ebene, die allgemeinen Einstellungen haben sie in separate Bereiche für Organisation und Workspace aufgeteilt. Nutzer-Einstellungen und Anwendungs-Tokens finden sich ab sofort unter dem Benutzernamen im Menü. Organisationen erhalten eine neue Startseite, die alle Workspaces sowie laufende, erfolgreiche und fehlgeschlagene Syncs übergreifend darstellt – eine Art Dashboard-Ansicht für alle zugänglichen Workspaces. Darüber hinaus liefert Version 2.0 mit dem Helm Chart nun standardmäßig Ingress-Konfigurationen aus, was die Einrichtung neuer Deployments vereinfachen soll.
Airbyte 2.0 steht ab sofort sowohl als selbst gehostete Open-Source-Version als auch über Airbyte Cloud zur Verfügung. Die vollständigen Release Notes mit allen technischen Details finden sich im GitHub-Repository [4] des Projekts.
URL dieses Artikels:
https://www.heise.de/-10777748
Links in diesem Artikel:
[1] https://www.heise.de/news/Flexiblere-Datenintegration-mit-der-Open-Source-Plattform-Airbyte-1-0-9953092.html
[2] https://docs.airbyte.com/platform/deploying-airbyte/chart-v2-community
[3] https://docs.airbyte.com/platform/enterprise-setup/chart-v2-enterprise
[4] https://github.com/airbytehq/airbyte/releases/tag/v2.0.0
[5] https://www.heise.de/ix
[6] mailto:fo@heise.de
Copyright © 2025 Heise Medien
(Bild: SWKStock/Shutterstock)
Im Interview spricht Erik Wilde über offene Schnittstellen und die richtige Balance zwischen KI und traditionellen Ansätzen.
Erik Wilde hat jahrelange Erfahrung im API-Bereich. Als Botschafter bei der OpenAPI-Initiative setzt er sich für den Einsatz offener Standards und Best Practices in API-Design und -Management ein. Auf YouTube betreibt er den Channel Getting APIs to Work [1], der sich an IT-Experten, Entwicklerinnen und Produktmanager richtet. Außerdem hat Wilde zahlreiche Artikel und Bücher geschrieben, und er spricht regelmäßig auf Fachkonferenzen.
iX: Schnittstellen sind ein absolutes Grundkonzept der Softwarearchitektur; man entwirft, implementiert und überarbeitet sie ständig für die Anwendungsprogrammierung. Wann beginnt man, eine Schnittstelle als API zu bezeichnen? Die Semantik dieses Wortes geht über die reine Abkürzung hinaus.
Erik Wilde: Man bezeichnet eine Schnittstelle als API, sobald sie über ihren unmittelbaren Implementierungskontext hinaus von anderen genutzt werden soll. Eine Schnittstelle ist nur eine technische Grenze, eine API hingegen ein veröffentlichter Vertrag. Das bedeutet, dass sie absichtlich offengelegt, dokumentiert und stabil genug ist, damit andere – innerhalb oder außerhalb des Entwicklerteams oder Systems – sich darauf verlassen können. Es ist vor allem der Aspekt der Absicht und des breiteren Publikums, der eine API auszeichnet.
iX: Sind die Ansätze, die eine API für Menschen nützlich und zugänglich machen, nicht dieselben wie diejenigen, die sie für KI, also LLM-basierte Automatisierung, zugänglich machen?
Wilde: Sowohl Menschen als auch Maschinen benötigen zugängliche APIs, jedoch auf unterschiedliche Weise. Für Menschen funktioniert die Dokumentation am besten, wenn APIs einheitliche Muster aufweisen, da das nicht nur das Verständnis erleichtert, sondern auch die Wiederverwendung von Tools und Verfahren für verschiedene APIs ermöglicht. Menschen können auch einen breiteren Kontext heranziehen, ohne verwirrt zu werden. Maschinen hingegen benötigen eine klare, in sich geschlossene Beschreibung jeder API. Selbst wenn die Kontextfenster größer werden, ist mehr Kontext nicht immer hilfreich – KI hat oft Schwierigkeiten, größere Kontexte effektiv zu nutzen.
Menschen schätzen APIs, die offen, wiederverwendbar und flexibel anpassbar sind, während Maschinen mehr von einer geführten Abstraktionsebene profitieren, die den Schwerpunkt darauf legt, was erreicht werden kann und wie dies zu tun ist, anstatt jede mögliche Operation offenzulegen.
iX: Sie haben sich in der Vergangenheit in Ihrem YouTube-Channel "Getting APIs to Work" mit dem ökologischen Fußabdruck von APIs befasst. Wenn man über Softwareeffizienz und CO2-Bewusstsein nachdenkt, passt das dann gut zu dem, was derzeit als Agentic AI beworben wird?
Wilde: Der ökologische Fußabdruck von Agentic AI ist erheblich, da die explorative Nutzung durch Agenten oft zu mehr Orchestrierung, mehr Rechenzyklen und einem höheren Energieverbrauch führt. Das scheint im Widerspruch zu den Bestrebungen nach Effizienz und CO2-Bewusstsein bei Software und APIs zu stehen.
Der Weg nach vorne besteht darin, sie als komplementär zu betrachten: Agenten können kreative Lösungen erforschen und neue Vorgehensweisen aufdecken, aber sobald ein vielversprechender Ansatz gefunden ist, sollte er in einen deterministischen, wiederholbaren Workflow kodifiziert werden, der energieeffizient, skalierbar und überprüfbar ist. Das bringt die Vorteile der Kreativität der KI mit der Notwendigkeit eines nachhaltigen und konformen Betriebs in Einklang, wobei so viel KI wie nötig, aber so wenig wie möglich eingesetzt wird.
Durch das Entwickeln von Architekturen, die einen reibungslosen und bewussten Übergang vom Experimentieren zur effizienten Ausführung ermöglichen, können wir sowohl die Unsicherheit hinsichtlich der Unvorhersehbarkeit der KI als auch die Notwendigkeit angehen, ihren erheblichen Energieverbrauch zu kontrollieren.
iX: In welcher Beziehung steht MCP zu OpenAPI? Verfolgen beide nicht dasselbe Ziel: die Standardisierung der Beschreibung von APIs und deren einfache Zugänglichkeit? Oder ähnelt es eher JSON:API, also der Standardisierung der APIs selbst?
Wilde: Bei MCP, OpenAPI und JSON:API geht es darum, Funktionen verfügbar zu machen, aber sie richten sich an unterschiedliche Nutzer. MCP wurde speziell für LLMs entwickelt und stellt ihnen Tools und Ressourcen zur Verfügung, die auf ihre Arbeitsweise zugeschnitten sind. OpenAPI hingegen richtet sich an Entwickler, die HTTP-APIs nutzen möchten, und konzentriert sich hauptsächlich darauf, Endpunkte zu strukturieren und diesen Schemata hinzuzufügen.
JSON:API fügt eine weitere Ebene hinzu, indem es standardisiert, wie die Schemata strukturiert sind und welche gemeinsamen Konzepte eine API offenlegen sollte, sodass Entwickler von bereits bekannten Konventionen profitieren und Tools wiederverwenden können, die diese unterstützen.
Es ist zwar möglich, MCP-Server automatisch aus OpenAPI zu generieren, aber das führt in der Regel nicht zu den besten Ergebnissen: Bei komplexeren APIs reicht eine Liste von Endpunkten nicht aus, da LLMs das implizite Verständnis fehlt, das Menschen beim Schreiben von Code mitbringen. Das ist der grundlegende Unterschied: OpenAPI und JSON:API gehen davon aus, dass ein menschlicher Developer die Lücken füllen kann, während MCP eine ausreichend aufgabenorientierte Struktur bereitstellen muss, damit ein LLM ohne diese menschliche Intelligenz erfolgreich sein kann.
iX: Machen LLMs bestimmte Ansätze zur Automatisierung überflüssig? Oder sind sie nur ein weiterer Anwendungsfall? Aufgrund der Nicht-Determiniertheit können sie eine zuverlässige Systemintegration vermutlich nicht wirklich ersetzen.
Wilde: Bei der Automatisierung geht es in der Regel um Zuverlässigkeit, Wiederholbarkeit und Effizienz, was LLMs nicht bieten. Sie sind nicht deterministisch, nicht zuverlässig reproduzierbar und nicht besonders effizient. Was sie jedoch bieten, ist eine neue Art von Kreativität: die Fähigkeit, Lücken zu schließen, Lösungen auszuprobieren und chaotischere Teile der Automatisierung zu bewältigen, die mit traditionellen Ansätzen nicht möglich sind.
Am besten betrachtet man sie als ein weiteres Werkzeug im Werkzeugkasten – eines, das wir selektiv einsetzen können, zum Erkunden oder für bestimmte Teile eines Prozesses, aber nicht für die Teile, die strenge Garantien erfordern. Architekturen, die LLM-gesteuerte Erkundung mit kodifizierten, deterministischen Workflows kombinieren, können das Beste aus beiden Welten vereinen: KI, wo Kreativität einen Mehrwert schafft, und traditionelle Automatisierung, wo Zuverlässigkeit unerlässlich ist.
Das Interview führte Richard Wallintin von WPS – Workplace Solutions.
URL dieses Artikels:
https://www.heise.de/-10773518
Links in diesem Artikel:
[1] https://www.youtube.com/@ErikWilde/featured
[2] https://conferences.isaqb.org/software-architecture-gathering/
[3] https://conferences.isaqb.org/software-architecture-gathering/program-2025/
[4] https://conferences.isaqb.org/software-architecture-gathering/session/your-api-is-not-ready-for-ai-yet-a-lifecycle-based-readiness-guide/
[5] mailto:rme@ix.de
Copyright © 2025 Heise Medien
(Bild: heise online)
Im agilen Podcast mit Ina Einemann und Sebastian Bauer spricht Simon Flossmann darüber, wie aktives Lernen und Interaktion nachhaltiges Wissen fördern.
Scrum Master oder Agile Coaches stehen immer wieder vor der Herausforderung, Wissen gut zu vermitteln, sei es in Workshops, Trainings oder kurzen Impulsen im Alltag. Das klassische Modell "eine Person redet, die anderen hören zu" ist dabei leider meist das ineffizienteste. Inhalte bleiben nicht hängen und nachhaltige Lernprozesse bleiben aus.
Genau hier setzt die Methode "Training from the Back of the Room" an. Statt Frontalunterricht setzt sie auf aktives Lernen, Interaktion und eigenständiges Denken, basierend auf den sogenannten vier Cs, die für Connections, Concepts, Concrete Practice und Conclusions stehen.
Ina Einemann und Sebastian Bauer begrüßen in dieser Folge ihres agilen Podcasts Simon Flossmann [1]. Er hat unzählige Trainings in der agilen Welt gegeben und kennt diese Methode in- und auswendig. In dieser Folge teilt er seine Erfahrungen und Tipps für nachhaltiges Lernen und zeigt, wie Facilitator, Trainer oder Coaches bessere Lernräume schaffen können, damit die Teilnehmenden wirklich etwas mitnehmen können.
URL dieses Artikels:
https://www.heise.de/-10776099
Links in diesem Artikel:
[1] https://www.linkedin.com/in/simonflossmann
[2] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[3] http://dpunkt.de/produkt/training-from-the-back-of-the-room/
[4] https://www.scrum.org/simon-flossmann
[5] https://alc.inside-agile.de/?wt_mc=intern.academy.dpunkt.konf_dpunkt_ia_alc.empfehlung-ho.link.link
[6] mailto:mdo@ix.de
Copyright © 2025 Heise Medien
Verbundene WLAN-Geräte verraten dem Router auch etwas über die Umgebung. Variiert die Stärke der Funksignale, kann man damit sogar Passanten identifizieren.
Eine Person zwischen einem WLAN-Gerät und dem lokalen Router stört die Übertragung. Mit dem Übertragungsstandard 802.11ac senden angemeldete WLAN-Geräte in regelmäßigen Abständen eine unverschlüsselte Beamforming Feedback Information (BFI) an den Router, eine komprimierte Darstellung der aktuellen Signaleigenschaften. Dieses Feedback soll dabei helfen, die Bandbreite zwischen beiden Geräten zu optimieren.
Auf diese Weise sammelt der Router allerdings von jedem verbundenen Smartphone oder Tablet in der Umgebung Informationen über den jeweiligen Signalweg. Wie sich die Radiowellen ausbreiten, sagt aber auch immer etwas über die räumliche Umgebung und über die Personen im Raum aus, so ähnlich wie ein Foto etwas über die Ausbreitung von Lichtwellen aus einem bestimmten Blickwinkel aussagt, erläutert Thorsten Strufe Professor für praktische IT-Sicherheit am Karlsruher Institut für Technologie (KIT). Mit den BFIs verschiedener Geräte aus verschiedenen Richtungen erhält der Router zahlreiche Informationen über sein Umfeld aus verschiedenen Blickwinkeln.
Bereits seit einigen Jahren versuchen Forscher die Analyse von Kanalzustandsinformationen (Channel State Information, CSI) auszureizen [9] [9]. Die zwischen Router und WLAN-Geräten ausgetauschten CSI dienen als Feedback zur Übertragungsqualität. Um die zu messen, senden die verbundenen Geräte sogenannte Long Training Fields (LTFs) in der Paketpräambel jeder Übertragung. Der Empfänger kann dann das erwartete Signal (die vordefinierten LTFs) mit dem empfangenen vergleichen und Abweichungen zur Fehlerkorrektur nutzen.
URL dieses Artikels:
https://www.heise.de/-10773306
Links in diesem Artikel:
[1] https://www.heise.de/hintergrund/Security-Wie-WLAN-Geraete-Passanten-ausspionieren-10773306.html
[2] https://www.heise.de/hintergrund/Was-Wi-Fi-8-bringt-Neue-Funktionen-fuer-stabileres-WLAN-10543749.html
[3] https://www.heise.de/ratgeber/FAQ-Internetprotokoll-IPv6-10498571.html
[4] https://www.heise.de/tests/Powerline-WLAN-Basis-Devolo-Magic-2-WiFi-6-im-Test-10487357.html
[5] https://www.heise.de/hintergrund/So-funktioniert-das-Ultra-Ethernet-10477044.html
[6] https://www.heise.de/news/AVM-Fritzbox-Moeglicher-Serienfehler-bei-mehreren-Modellen-10438439.html
[7] https://www.heise.de/tests/OpenWrt-Router-BananaPi-Router-R3-im-Test-10397102.html
[8] https://www.heise.de/tests/Guenstige-DSL-und-TV-Kabel-Anschluesse-im-Vergleich-10392531.html
[9] https://www.heise.de/news/Biometrie-per-WLAN-Signalstoerungen-erlauben-Personenerkennung-und-Ueberwachung-10515620.html
Copyright © 2025 Heise Medien
(Bild: Bambulab.com)
Bambu Lab hebt mit dem P2S den 3D-Druck auf ein neues Niveau – mit neuem Extruder, KI-Fehlererkennung und adaptiver Kühlung für präzise Ergebnisse.
Wenn Bambu Lab ein neues Gerät ankündigt, schaut die Maker-Community inzwischen so gespannt hin wie Technikfans bei einem Apple-Event. Der P2S, Nachfolger des populären, aber nicht perfekten [1], P1S, wurde in den sozialen Kanälen entsprechend gefeiert und die Präsentation war strategisch getaktet mit Teasern und einem festen Enthüllungstermin – Dienstag, der 14. Oktober. Der chinesische Hersteller hat zahlreiche Detailverbesserungen in ein vertrautes, aber überarbeitetes Gehäuse gepackt – eine gezielte Modernisierung für anspruchsvolle Bastler und kleine Fertigungsbetriebe.
Das Herzstück ist der neue PMSM-Servo-Extruder. Statt klassischer Stepper-Motoren nutzt Bambu Lab eine geschlossene Regelschleife, die den Materialfluss 20.000-mal pro Sekunde überwacht. Bis zu 8,5 kg Extrusionskraft – rund 70 Prozent mehr als beim Vorgänger – soll für stabile Linien auch bei hohen Geschwindigkeiten sorgen. Die Sensorik soll Abrieb oder Verstopfungen frühzeitig erkennen, was primär bei abrasiven Filamenten von Vorteil ist.
Das neue Luftmanagement wechselt zwischen Kalt- und Wärmemodus. Für PLA oder PETG wird Frischluft von außen zugeführt; für technische Kunststoffe hält ein Wärmespeichermodus rund 50 °C im Bauraum. Ein Aktivkohlefilter reduziert Geruch und Partikel – praktisch in geschlossenen Werkstätten. Das System reagiert adaptiv auf Geometrie und Material, um Fadenbildung und Warping zu vermeiden.
(Bild: Bambulab.com)
Mit einer KI-Fehlererkennungsfunktion soll der P2S typische Probleme wie "Spaghettidruck", verstopfte Düsen oder Luftdrucke automatisch erkennen. Eine integrierte Neural Processing Unit analysiert die 1080p-Kamerabilder und prüft vor Druckstart, ob Düse, Bett und Parameter passen. Das soll Fehldrucke und Materialverluste spürbar reduzieren.
(Bild: Bambulab.com)
Während viele Nutzer in Foren und frühen YouTube-Reviews [2] den P2S bereits als nahezu perfekten Allrounder loben [3], sind die Reaktionen nicht durchweg euphorisch. Positiv hervorgehoben werden vor allem die verbesserte Zuverlässigkeit und die spürbar ruhigere Extrusion – einige Maker berichten von konsistenteren Oberflächen bei hohen Geschwindigkeiten und deutlich weniger Nacharbeit. Kritik gibt es jedoch an Bambu Labs zunehmend geschlossenem System [4]: Anpassungen tiefer in der Firmware oder alternative Slicer-Profile sind nur eingeschränkt möglich, was in der Community für gemischte Gefühle sorgt. Auch der Ersatzteil- und Reparaturprozess wird teilweise als zu stark an den Hersteller gebunden kritisiert.
Zum Preis von 519 Euro [5] (749 Euro mit AMS 2 Pro [6] für Mehrfarben- und integrierte Filamenttrocknung) gelingt Bambu Lab erneut der Spagat zwischen Hobby und Pro-Niveau. Insgesamt demonstriert der P2S, wie weit der Desktop‑3D‑Druck inzwischen gereift ist – weg vom Bastelprojekt, hin zu kontrollierter Prozessstabilität und präziser Reproduzierbarkeit. Für die Maker‑Community bedeutet das schnellere, verlässlichere Drucke und eine klar erkennbare Annäherung an professionelle Fertigungsstandards.
URL dieses Artikels:
https://www.heise.de/-10771226
Links in diesem Artikel:
[1] https://www.heise.de/news/BambuLab-P1S-Gemischte-Gefuehle-und-jede-Menge-Muell-9334565.html
[2] https://www.youtube.com/watch?v=uq4YoTXWvVg
[3] https://www.youtube.com/watch?v=PVdxJm9LcAE
[4] https://www.heise.de/news/Bambu-Lab-Sicherheitsfeature-sperrt-Dritt-Slicer-aus-10248408.html
[5] https://eu.store.bambulab.com/products/p2s?from=home_page_3dprinter&id=654444275327889410
[6] https://eu.store.bambulab.com/products/p2s?sv1=affiliate&sv_campaign_id=103504
[7] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[8] mailto:mch@make-magazin.de
Copyright © 2025 Heise Medien
(Bild: LattePanda)
Das neue LattePanda IOTA kombiniert eine Intel-x86-CPU mit RP2040-Co-Prozessor – interessant für Maker.
LattePanda hat mit dem IOTA [1] ein neues Einplatinen-System vorgestellt. Das Board basiert auf dem x86 Intel-Prozessor N150 mit vier Kernen und bis zu 3,6 GHz Taktfrequenz. Es ist wahlweise mit 8 oder 16 GB LPDDR5-RAM und 64 oder 128 GB eMMC-Speicher erhältlich.
Die Ausstattung richtet sich an Anwender, die ein vollwertiges x86-System in kompakter Form benötigen. Neben drei USB-3.2-Gen2-Ports bietet das Board Gigabit-Ethernet, HDMI 2.1 mit 4K-Ausgabe, eDP-Schnittstelle, Audioanschluss, einen M.2-E-Key-Slot für Erweiterungen und einen microSD-Kartenleser. Für die Nutzung des RP2040 in Projekten stehen natürlich auch dessen GPIO-Pins zur Verfügung. Über optionale Erweiterungsplatinen kann der IOTA zudem um PoE-, LTE- oder UPS-Module ergänzt werden.
Der IOTA hat Abmessungen von 88 × 70 × 19 Millimeter. Die Energieversorgung erfolgt über USB-C mit Power Delivery (15 V) oder über einen separaten 4-Pin-Anschluss (10 bis 15 VDC). Das Board kann passiv oder aktiv gekühlt betrieben werden, je nach Leistungsbedarf. Durch die kompakte Bauform eignet es sich für den Einbau in Gehäuse, Steuerboxen oder mobile Geräte.
Zusätzlich zu dem Intel-Prozessor ist auf dem Board auch ein RP2040-Co-Prozessor integriert. Der Mikrocontroller arbeitet unabhängig vom Hauptprozessor und kann Sensoren, Motoren oder andere Aktoren direkt ansteuern. Für Maker und Entwickler ergibt sich daraus ein Vorteil: Echtzeitsteuerung und Anwendungslogik lassen sich auf derselben Platine trennen, ohne zusätzliche Mikrocontroller-Boards einsetzen zu müssen. So kann beispielsweise ein Steuerungssystem Messdaten lokal verarbeiten, während die x86-CPU Auswertungen übernimmt. Auch für Lehrzwecke oder Laborumgebungen bietet sich das Board an, da es klassische PC-Software mit typischer Elektronik-Peripherie verbindet.
Das System unterstützt Windows 10 und 11 sowie Ubuntu 22.04 und 24.04. Das heißt, man könnte einen Smarthome-Server direkt auf dem Board laufen lassen, eine lokale Datenanalyse betreiben oder Desktop-basierte Software nutzen.
Für den LattePanda IOTA steht auf der offiziellen Webseite die Dokumentation [2] und ein Quickstart-Guide bereit. Der Preis für die Ausführung mit 8 GB RAM und 64 GB eMMC liegt bei 129 US-Dollar und für die Version mit 16 GB RAM und 128 GB eMMC Version bei 175 US-Dollar. Beides jeweils ohne Windows-Lizenz. Wer mehr über den RP2040 wissen will, findet hier unseren Test zum Pi Pico W [3].
URL dieses Artikels:
https://www.heise.de/-10767169
Links in diesem Artikel:
[1] https://www.lattepanda.com/lattepanda-iota
[2] https://docs.lattepanda.com/content/iota_edition/specification/
[3] https://www.heise.de/tests/Pi-Pico-mit-WLAN-im-Test-7186692.html
[4] https://www.heise.de/make
[5] mailto:das@make-magazin.de
Copyright © 2025 Heise Medien
Gemeinsam forschen Anastasiya Tönjes und Mika Altmann an neuen Materialien.
(Bild: U Bremen Research Alliance)
Die U Bremen Research Alliance entwickelt 3D-gedruckte leichte Titanbauteile sowie umweltfreundliche Lacksysteme und smarte Reparaturkonzepte.
Mika Altmann sprüht vor Begeisterung für 3D-Druck: "Wir können mithilfe von Lasern Materialien entwickeln, die auf konventionellem Wege gar nicht erzeugbar sind. Wir können die Eigenschaften eines Bauteils bestimmen, seine Struktur, wie fest oder dehnbar er ist. Wir können aber auch kleinste Bereiche im Material anders gestalten." Die Potenziale des Verfahrens sieht Altmann noch längst nicht ausgeschöpft. Genau das treibt den Doktoranden am Leibniz-Institut für Werkstofforientierte Technologien an. Altmann arbeitet am Projekt "Technologien und Reparaturverfahren für nachhaltige Luftfahrt in Kreislaufwirtschaft" (TIRIKA).
Dabei geht es auch darum, Verfahren zu verbessern, mit dem 3D-gedruckte Titanbauteile wirtschaftlicher und ökologischer hergestellt werden können. Ein Bereich ist die Herstellung nicht sicherheitskritischer Verbindungselemente wie Brackets, die in vielen Bereichen eines Flugzeugs eingesetzt werden. Um die beim 3D-Druck entstehenden Poren der Bauteile zu schließen, werden diese bislang in einem komplizierten Verfahren einer Kombination aus Hitze, Druck und anschließender Abkühlung unterzogen. Das geschieht in einem Hochdruckzylinder bei Temperaturen bis zu 1.400 Grad Celsius bei 2.000 bar Druck unter Verwendung von Argon, einem Edelgas. Das Problem: "Das Verfahren ist energieintensiv und sündhaft teuer", so Altmann.
Das Team um Altmann variiert Temperaturbereiche und Zeiten, um Festigkeit, Härte und Dehnungsfähigkeit zu optimieren. "Den Hochdruckofen haben wir zum Beispiel mit zehn bis 15 Grad Celsius pro Minute aufgeheizt und mit bis zu 1.600 Grad Celsius pro Minute abgekühlt", erklärt der Forscher. Ziel ist, das Potenzial des schichtweise aufgebauten Materials zu maximieren, Grenzen auszuloten und Schwachstellen zu identifizieren. In zahlreichen Tests stellten die Wissenschaftler Proben her, analysierten deren Eigenschaften und verglichen die Ergebnisse eines Schutzgasofens mit denen des Hochdruckverfahrens. "Wir haben sehr vielversprechende Ergebnisse erzielt", betont Altmann.
Mit dem 3D-Druck beschäftigt sich auch das Fraunhofer-Institut für Fertigungstechnik und Angewandte Materialforschung IFAM. Ein Forsschungsziel liegt in der vereinfachten Entfernung von Stützstrukturen, die komplexe Bauteile während des Drucks stabilisieren. "Nach dem Druck müssen sie sehr aufwendig per Hand entfernt werden", erläutert Stefan Dieckhoff, Abteilungsleiter Adhäsions- und Grenzflächenforschung am IFAM. Wie der Informationsdienst Wissenschaft (IDW) berichtete [1], wurden so bis zu 15 Prozent festere Bauteile entwickelt. Zugleich braucht die Herstellung weniger Material, um die angestrebten Eigenschaften zu erreichen. Gewichtseinsparung bedeutet besonders im Bereich Luft- und Raumfahrtechnik weniger Treibstoff und geringere Kosten, sowohl im Betrieb als auch bei der Herstellung der Bauteile.
Das vom Bundesministerium für Wirtschaft und Energie mit rund 20 Millionen Euro geförderte Projekt TIRIKA vereint unter Leitung von Airbus Operations in Bremen etwa ein Dutzend Partner aus Wissenschaft und Wirtschaft. Diese erforschen Ansätze für nachhaltige Luftfahrt, darunter Recycling von Metallen und Kunststoffen, Alternativen zu Gefahrstoffen, digitalisierte Prozesse, umweltfreundlichere Reparaturmethoden und Maßnahmen zur Gewichtsreduktion.
"Der Reiz von TIRIKA ist die Themenvielfalt. Das habe ich in dieser Größe und Breite bei einem Luftfahrtforschungsprojekt noch nicht erlebt", sagt Dieckhoff, der seit 1992 am IFAM tätig ist. "TIRIKA ist ein Leuchtturmprojekt, in dem viele unterschiedliche Disziplinen im Verbund mit Unternehmen gemeinsam für mehr Nachhaltigkeit in der Luftfahrt forschen. Das ist schon etwas Besonderes", pflichtet ihm Anastasiya Tönjes bei. Sie leitet am Leibniz-Institut für Werkstofforientierte Technologien die Abteilung Leichtbauwerkstoffe. Für Tönjes ist das Projekt auch ein Beleg für die Stärke des Wissenschaftsstandortes Bremen.
URL dieses Artikels:
https://www.heise.de/-10752154
Links in diesem Artikel:
[1] https://idw-online.de/de/news859301
[2] https://www.heise.de/make
[3] mailto:usz@heise.de
Copyright © 2025 Heise Medien
(Bild: KI / heise medien)
Oft finden wir bei der Recherche auch Beifang in Form von kleinen Tools, neuer Hard- und Software sowie spannenden Themen. Hier eine kleine Auswahl.
Der beliebte Open-Source-Slicer OrcaSlicer ist in Version 2.3.1 erschienen [1] und bringt zahlreiche Detailverbesserungen sowie Fixes mit. Neben einem überarbeiteten Updater und optimierten Build-Prozessen wurden diverse neue Druckerprofile integriert, darunter Modelle von Flyingbear, Sovol (SV08 MAX, SV01) und Rolohaun. Auch bestehende Profile, etwa für den Anycubic Kobra oder Ender 3 V3 KE, erhielten Feintuning.
Für eine stabilere Druckqualität sorgen Verbesserungen beim Input Shaping und bei der G-Code-Verarbeitung, speziell bei Z-Achsen-Bewegungen. Zudem behebt die neue Version einen Bug, der bei bestimmten Prusa-Modellen falsche Druckereinstellungen auswählte, sowie einen Importfehler bei 3MF-Dateien aus älteren Alpha-Versionen. Neue Komfortfunktionen wie die Erinnerung an die Slider-Position im Einzel-Layer-Modus, überarbeitete Übersetzungen und ein Warnsystem für die "Infill Rotation"-Templates runden das Update ab.
Praktisch wird es in einem YouTube-Video von YouTuber Teaching Tech [2]: Stabile und doch schnell zu druckende Objekte können durch rotierbare Infills (per Listen auch für mehrere Abschnitte im Modell), Multiline-Infill und extra komplett gefüllten Zwischenlagen erzeugt werden.
Fuzzy-Skin erzeugt wie bisher auch künstlich angeraute Oberflächen auf den Drucken, sei es zu dekorativen Zwecken oder um die Griffigkeit zu erhöhen. Die kann entweder durch kleine Bewegungen des Druckkopfes und(!)/oder neu auch durch Variation der Flussrate geschehen. Neu ist auch, dass man die Stellen, wo dies geschehen soll, per Aufmalen mit der Maus steuern kann.
Das Optimieren des Input-Shapings wird mit neuen Druckvorlagen noch einfacher und schneller, und man kann nun auch Bereiche für Resonanzvermeidung angeben.
Für Multifarb-Drucke ist es jetzt möglich, Filamente komplett zu tauschen, ohne eine umständliche Auswahl mit der Maus machen zu müssen, ideal für Multi-Color-Objekte, die man nicht selbst gesliced hat.
Zum Download sollte man übrigens nur das offizielle Softfever-Github [4] oder neu die offizielle Website orcaslicer.com [5] nutzen! Alle anderen Adressen, die in einer Suche auftauchen, könnten potenzielle Phising-Fallen werden, auch wenn sie jetzt noch auf das offizielle Repository zeigen. Die Dokumentation ist wie gehabt auf dem GitHub-Wiki [6] zu finden.
Raspberry Pi hat eine neue Version seines Betriebssystems für die Raspberry-Pi-Boards [7] veröffentlicht. Die neue Version von Raspberry Pi OS aktualisiert das Basis-Betriebssystem von Debian 12 auf Debian 13 ("Trixie"). Es gibt ein neues Design mit neuen Symbolen und einem neuen Hintergrundbild sowie ein brandneues Kontrollzentrum zum Konfigurieren von Elementen wie Tastatur, Bildschirmen, Hinzufügen von Druckern usw. Die Release-Logs sind lang und im GitHub einzusehen. [8]
Am einfachsten ist die Installation auf eine Speicherkarte mit dem Raspberry Pi Imager [9], mit dem auch schon einige wichtige Einstellungen für das System (Netzwerk, ssh, etc.) direkt erledigt werden können.
Mit Blender 5.0 steht ein großer Versionssprung für die Open-Source-3D-Suite bevor. Neben massiven Leistungsverbesserungen bringt das Update zahlreiche Komfortfunktionen und eine runderneuerte Oberfläche. Die finale Veröffentlichung ist für den 11. November 2025 geplant, die Beta startete am 1. Oktober [10] (auch wenn sie sich als Alpha ausgibt), der Release Candidate am 5. November.
(Bild: Blender.org)
Das Releasedatum ist bisher nicht 100-prozentig fix, denn mit der aktuellen Beta-Version von Blender 5.0 könnten noch Fehler gemeldet werden, die das Release verzögern. Die aktuellen Release Notes [11] geben einiges an Lesestoff. Aufregend finde ich persönlich die weiteren Verbesserungen am Sequencer, der immer mehr zum Videoeditor wird und nun auch den Compositor besser einbindet.
Massive Geometrie & neue Limits: Die neue Version kann inzwischen mit großen Meshes umgehen – ideal für aufwendige 3D-Scans, High-Poly-Modelle und riesige Szenen. Dateien aus Blender 5.0 lassen sich allerdings nicht mehr in älteren Versionen (unter 4.5) öffnen, umgekehrt funktioniert das aber weiterhin.
Grease Pencil mit Motion Blur: Ein Highlight für 2D/3D-Hybride: Das Grease-Pencil-Tool bekommt erstmals Motion-Blur-Unterstützung beim Rendern. Animierte Zeichnungen sollen damit flüssiger und filmischer wirken.
Feinschliff an der Oberfläche: Blenders UI wird weiter poliert – mit verbessertem Drag-and-drop, klareren Outliner-Rückmeldungen, einheitlicheren Widgets und kleineren Layoutanpassungen. Auch der Video-Sequencer wurde überarbeitet: Neue Clips erscheinen jetzt direkt unter dem Mauszeiger statt irgendwo in der Timeline.
Work-in-Progress: Cycles, Geometry Nodes und mehr: Viele zentrale Bereiche, von den Geometry Nodes über Sculpting bis zum Compositing, sind noch in Arbeit. Spekuliert wird über Animation Layers und eine überarbeitete UV-Sync-Selection – lang ersehnte Features der Community.
Für Add-on-Entwickler und Studios heißt das: rechtzeitig testen [12]. Blender 5.0 könnte nicht nur größer, sondern auch wegweisend für die kommenden Jahre in der 3D-Open-Source-Welt werden.
URL dieses Artikels:
https://www.heise.de/-10733429
Links in diesem Artikel:
[1] https://github.com/SoftFever/OrcaSlicer/releases/tag/v2.3.1
[2] https://www.youtube.com/@TeachingTech
[3] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[4] https://github.com/SoftFever/OrcaSlicer/releases/tag/v2.3.1
[5] https://www.orcaslicer.com/
[6] https://github.com/SoftFever/OrcaSlicer/wiki
[7] https://www.heise.de/news/Raspberry-Pi-OS-wechselt-auf-Debian-Trixie-Basis-10722458.html
[8] https://downloads.raspberrypi.com/raspios_arm64/release_notes.txt
[9] https://www.raspberrypi.com/software/
[10] https://builder.blender.org/download/daily/
[11] https://developer.blender.org/docs/release_notes/5.0/
[12] https://builder.blender.org/download/daily/
[13] https://www.heise.de/make
[14] mailto:caw@make-magazin.de
Copyright © 2025 Heise Medien
(Bild: Arduino)
Der Einplatinencomputer Arduino Uno Q bekommt einen Qualcomm-Prozessor. Er ermöglicht ähnliche Projekte wie ein Raspberry Pi.
Qualcomm übernimmt den für seine Mikrocontroller-Boards bekannten Hersteller Arduino. Direkt zur Übernahme stellt Qualcomm seinen ersten Einplatinencomputer für Bastelprojekte vor: den Arduino Uno Q. Saßen auf bisherigen Uno-Boards nur kleine Mikrocontroller für simple Aufgaben, kommt der Uno Q mit einem Chipduett aus Mikrocontroller (MCU) und Mikroprozessor (MPU), sodass etwa Linux eigenständig auf dem Board läuft.
Schon die MCU in Form des STMicroelectronics STM32U585 ist deutlich schneller als der Renesas RA4M1 auf dem Arduino Uno R4 [1]. Die neue Variante setzt auf den ARM-Kern Cortex-M33 mit 160 MHz (Uno R4: Cortex-M4, 48 MHz).

Zusätzlich sitzt Qualcomms Dragonwing QRB2210 auf der Platine. In ihm stecken vier ARM-Kerne vom Typ Cortex-A53, die 2,0 GHz schaffen. Außerdem gibt es eine integrierte Grafikeinheit und Zusatzblöcke wie Bildsignalprozessoren. Arduino und Qualcomm bewerben das Board auch für KI-Anwendungen (Edge AI).
Eine eigenständige KI-Einheit hat der QRB2210-Prozessor nicht, allerdings sollen die CPU und die GPU für einige KI-Algorithmen ausreichen, etwa zur Bilderkennung. Nützlich dafür: Der QRB2210 kann zwei Bildsensoren mit jeweils 13 Megapixeln oder einen einzelnen 25-Megapixel-Sensor ansteuern. Ein Hardware-De- und Enkodierer beherrscht H.265 und H.264 für 1080p-Videos mit 30 fps.
Zum Start bringt Arduino eine Variante mit 2 GByte LPDDR4-RAM und 16 GByte NAND-Flash-Speicher (eMMC) für 39 Euro auf den Markt. Sie soll ab heute vorstellbar und ab dem 25. Oktober verfügbar sein. Eine Version mit 4 GByte RAM und 32 GByte Flash soll ab November für 53 Euro vorbestellbar sein und bis zum Jahresende folgen. Ein Funkmodul für Wi-Fi 5 (2,4 + 5 GHz) und Bluetooth 5.0 ist stets dabei.
(Bild: Arduino)
Das Cortex-A53-Kerndesign ist bereits 13 Jahre alt [4], ist aber für viele Bastelprojekte schnell genug. Damals saß er als Effizienzkern in vielen Smartphone-Prozessoren. CPU-seitig ist der Arduino Uno Q grob mit dem Raspberry Pi 3 von 2016 [5] vergleichbar. Dessen Broadcom-BCM2837-Prozessor nutzt ebenfalls vier Cortex-A53-Kerne, die ab Werk mit 1,2 GHz allerdings ein gutes Stück niedriger takten.
Charmant erscheint die Kombination aus Mikrocontroller und Mikroprozessor aus Effizienzsicht. Auf dem integrierten Speicher des STMicro-Chips läuft Arduino Core, basierend auf Zephyr OS. Der Qualcomm-Prozessor kann sich fast komplett schlafen legen, wenn dessen Leistung nicht notwendig ist. Auf ihm laufen Debian-Linux-Betriebssysteme mit Upstream-Support sowie Unterstützung für Docker und Docker Compose.
Das neue Arduino App Lab dient als Entwicklungsumgebung für die CPU, GPU und MCU. Die Arduino-Entwickler betonen, dass sie auch nach der Qualcomm-Übernahme auf Open-Source setzen – Hardware-Komponenten wollen sie unter der Lizenz CC BY-SA 4.0 offenlegen, Software unter GPL3 und MPL.
Der größte Unterschied zu Raspberry-Pi-Einplatinencomputern liegt bei den Anschlüssen. Außer den GPIO-Pinleisten hat der Arduino Uno Q ausschließlich einen USB-C-Anschluss. Der Hersteller sieht den Einsatz eines USB-Hubs für die Stromversorgung (5 Volt, 3 Ampere), HDMI-Bildausgabe (max. 1680 x 720 Pixel mit 60 Hertz) und Peripherie vor. Der Anschluss schafft allerdings nur USB-2.0-Geschwindigkeit. Alternativ bekommt der Arduino Uno Q über GPIO-Pins Strom.
Es gibt keine eigenständigen Bildausgänge, keinen SD-Kartenslot zur Speichererweiterung und kein PCI Express (etwa für eine SSD). Qualcomm und Arduino versehen die Platinenunterseite allerdings mit neuen Pinleisten, für die künftig Erweiterungs-Boards erscheinen sollen, Arduino Carriers genannt.
Die Platinenbauform, Positionierung der Header (QWIIC, SPI 3V3) und GPIO-Pinleisten bleiben identisch, sodass bisherige Gehäuse und Zusatz-Hardware weiter passen. Auch die LED-Matrix ist weiterhin mit dabei. Der Arduino Uno Q versteht sich unter anderem auch auf die Interfaces I2C/I3C, CAN, UART, PSSI, JTAG und ADC.
(Bild: Arduino)
URL dieses Artikels:
https://www.heise.de/-10733137
Links in diesem Artikel:
[1] https://www.heise.de/ratgeber/Ausprobiert-Wie-sich-die-aktuellen-UNOs-von-Arduino-in-der-Praxis-schlagen-9209725.html
[2] https://www.heise.de/bilderstrecke/4951855.html?back=10733137;back=10733137
[3] https://www.heise.de/bilderstrecke/4951855.html?back=10733137;back=10733137
[4] https://www.heise.de/news/ARM-stellt-64-Bit-Prozessorkerne-Cortex-A53-und-A57-vor-1740587.html
[5] https://www.heise.de/news/Raspberry-Pi-3-mit-WLAN-Bluetooth-und-64-Bit-3119537.html
[6] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[7] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[8] mailto:mma@heise.de
Copyright © 2025 Heise Medien
This is a security-fix and bug-fix release for FreshRSS 1.27.x.
A few highlights ✨:
healthcheckframe-ancestorsThis release has been made by @Alkarex, @Frenzie, @Inverle, @aledeg, @math-GH and newcomers @beerisgood, @nykula, @horvi28, @nhirokinet, @rnkln, @scmaybee.
Full changelog:
Retry-After #7875no-cache.txt #7907.yml and SERVER_DNS example #7858overflow-wrap instead of word-wrap #7898make target to generate the translation progress #7905entry_before_update and entry_before_add hooks for extensions #7977A few highlights ✨:
429 Too Many Requests and 503 Service Unavailable, obey Retry-Afterc: for categories like c:23,34 or !c:45,56Content-Security-Policy: frame-ancestorsThis release has been made by @Alkarex, @Inverle, @the7thNightmare and newcomers @Deioces120, @Fraetor, @Tarow, @dotsam, @hilariousperson, @pR0Ps, @triatic, @tryallthethings
Full changelog:
429 Too Many Requests and 503 Service Unavailable, obey Retry-After #7760c: for categories like c:23,34 or !c:45,56 #7696s parameter of streamId #7695Content-Security-Policy: frame-ancestors #7677referrerpolicy, ping #7770clean_hash() #7813, FreshRSS/simplepie#48:newest updated to PHP 8.5-alpha and Apache 2.4.65 #7773FRESHRSS_INSTALL and FRESHRSS_USER variables #7725onbeforeunload #7554<video poster="..."> and <image> #7636<code> inside of <pre> #7797data-auto-leave-validation #7785chart.js to 4.5.0 #7752, #7816This is a bug-fix release for FreshRSS 1.26.x
A few highlights ✨:
This release has been made by @Alkarex, @Inverle and newcomers @CarelessCaution, @the7thNightmare
Full changelog:
bgcolor, text, background, link, alink, vlink #7606This is a security-focussed release for FreshRSS 1.26.x, addressing several CVEs (thanks @Inverle) 🛡
A few highlights ✨:
Notes ℹ:
This release has been made by @Alkarex, @Frenzie, @hkcomori, @loviuz, @math-GH
and newcomers @dezponia, @glyn, @Inverle, @Machou, @mikropsoft
Full changelog:
<iframe srcdoc=""> #7494, CVE-2025-32015<button formaction=""> #7506Content-Security-Policy HTTP headers to favicons #7471, CVE-2025-31136Referrer-Policy: same-origin #6303, #7478ext.php #7479, CVE-2025-31134mod_filter to ensure that AddOutputFilterByType works #7419
(Bild: Pincasso/Shutterstock.com)
Eine neue Methode erlaubt die Multiplikation großer Zahlen.
Die Klassen für Ganzzahltypen Int32, UInt32, Int64 und UInt64 bieten jeweils eine neue Methode BigMul() für die Multiplikation, die die Ergebnisse als Int64 und UInt64 bzw. Int128 und UInt128 zurückliefert (ohne Überlauf).
public void BigMul()
{
CUI.Demo();
long Value1 = long.MaxValue;
ulong Value2 = ulong.MaxValue;
Console.WriteLine("Value1: " + Value1.ToString("#,0"));
Console.WriteLine("Value2: " + Value2.ToString("#,0"));
CUI.H1("Normale Multiplikation");
Int128 e1 = Value1 * 2; // Überlauf! -2
UInt128 e2 = Value2 * 2; // Überlauf! 18446744073709551614
Console.WriteLine(e1.ToString("#,0")); // Überlauf! -2
Console.WriteLine(e2.ToString("#,0")); // Überlauf! 18446744073709551614
CUI.H1("Multiplikation mit BigMul()");
Int128 e3 = Int64.BigMul(Value1, 2); // 18.446.744.073.709.551.614
UInt128 e4 = UInt64.BigMul(Value2, 2); // 36.893.488.147.419.103.230
Console.WriteLine(e3.ToString("#,0")); // 18.446.744.073.709.551.614
Console.WriteLine(e4.ToString("#,0")); // 36.893.488.147.419.103.230
}
URL dieses Artikels:
https://www.heise.de/-10331981
Links in diesem Artikel:
[1] mailto:rme@ix.de
Copyright © 2025 Heise Medien
(Bild: Pincasso/Shutterstock.com)
In .NET 9.0 kann man neuerdings einen Globally Unique Identifier in der Version 7 mit Zeitstempel erzeugen.
Die .NET-Klasse System.Guid bietet seit .NET 9.0 neben der statischen Methode NewGuid(), die einen Globally Unique Identifier (GUID), alias UUID (Universally Unique Identifier), gemäß RFC 9562 [1] mit reinen Zufallszahlen (Version 4) erzeugt, nun auch eine weitere statische Methode CreateVersion7() mit einem Timestamp und einer Zufallszahl.
Folgender Code zeigt sowohl den Einsatz von NewGuid() als auch den von CreateVersion7():
public void Run()
{
CUI.Demo(nameof(FCL9_Guid));
for (int i = 0; i < 10; i++)
{
Guid guid = Guid.NewGuid();
Console.WriteLine($"Guid v4:\t{guid}");
}
for (int i = 0; i < 10; i++)
{
Guid guid7 = Guid.CreateVersion7();
Console.WriteLine($"Guid v7:\t{guid7}");
}
CUI.Yellow("Warte 1 Sekunde...");
Thread.Sleep(1000);
for (int i = 0; i < 10; i++)
{
Guid guid7 = Guid.CreateVersion7();
Console.WriteLine($"Guid v7:\t{guid7}");
}
}
(Bild: Screenshot (Holger Schwichtenberg))
Der Timestamp ist in UTC-Zeit in den ersten 64 Bits der GUID enthalten.
Zum Extrahieren des Zeitpunkts gibt es keine eingebaute Methode, man kann ihn aber folgendermaßen extrahieren:
public DateTimeOffset GetDateTimeOffset(Guid guid)
{
byte[] bytes = new byte[8];
guid.ToByteArray(true)[0..6].CopyTo(bytes, 2);
if (BitConverter.IsLittleEndian)
{
Array.Reverse(bytes);
}
long ms = BitConverter.ToInt64(bytes);
return DateTimeOffset.FromUnixTimeMilliseconds(ms);
}
URL dieses Artikels:
https://www.heise.de/-10316051
Links in diesem Artikel:
[1] https://www.rfc-editor.org/rfc/rfc9562.html
[2] mailto:rme@ix.de
Copyright © 2025 Heise Medien
(Bild: Pincasso/Shutterstock)
In C# 13.0 hat Microsoft den Einsatzbereich von ref struct unter anderem zum Implementieren von Schnittstellen erweitert.
Seit C# 7.2 gibt es Strukturen, die immer auf dem Stack leben und niemals auf den Heap wandern können: ref struct. In C# 13.0 hat Microsoft den Einsatz von ref struct erweitert.
Solche Typen können nun:
where T : allows ref struct verwenden.yield verwendet werden. Allerdings darf die Struktur nicht länger leben als der aktuelle Durchlauf des Iterator.Task oder Task<T> liefern, genutzt werden.Weiterhin gilt aber: Wenn man einen Typ als ref struct deklariert, ist ein Boxing nicht mehr möglich. Der Einsatz von ref struct ist daher begrenzt. So kann man beispielsweise kein Array und keine List<T> daraus erzeugen.
Folgender Code zeigt einen eigenen Typ mit ref struct, der eine Schnittstelle implementiert:
internal interface IPerson
{
int ID { get; set; }
int Name { get; set; }
}
// NEU seit C# 13.0: ref struct kann Schnittstelle implementieren
ref struct Person : IPerson
{
public int ID { get; set; }
public int Name { get; set; }
// ToString()
public override string ToString()
{
return "Person #" + ID + " " + Name;
}
}
}
class Client
{
public void Run()
{
Person p = new Person();
p.ID = 1;
p.Name = 2;
Console.WriteLine(p.ID);
Console.WriteLine(p.Name);
// Das ist alles nicht erlaubt!
// IPerson i = p; // Casting auf Schnittstelle
// List<Person> PersonList = new(); // List<T>
// PersonList[] PersonArray = new Person[10]; // Array
}
}
URL dieses Artikels:
https://www.heise.de/-10307583
Links in diesem Artikel:
[1] mailto:rme@ix.de
Copyright © 2025 Heise Medien