FreshRSS

🔒
❌ Über FreshRSS
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
Vor vorgesternIhre RSS-Feeds

Magic Keyboard fürs iPad Air mit neuer Farbe

Von Heise
Magic Keyboard für iPad Air

Magic Keyboard für iPad Air.

(Bild: Apple)

Es muss nicht immer ein iPad Pro sein: Wer ein Air besitzt, kann es nun mit einer optisch neuen Tastatur- und Trackpad-Kombi ausrüsten.

Apple hat in dieser Woche eine nette Kleinigkeit für Besitzer einer bestimmten iPad-Modellreihe in sein Programm genommen: Das Magic Keyboard für das iPad Air ist künftig nicht mehr nur in weißem Farbanstrich zu haben, sondern auch in Schwarz. Das letzte iPad Air mit M3-Chip [1] war von Apple bereits im März 2025 in insgesamt vier Farben – Spacegrau, Blau, Violett und "Polarstern", ein Goldton – präsentiert worden, bei der Original-Tastatur samt Trackpad gab es jedoch nur eine.

Farbliche Anpassung

Diese Unschönheit hat Apple nun beseitigt, wie ein Blick in den Apple Online Store offenbart. Sowohl die Variante mit 11 Zoll [2] als auch jene mit 13 Zoll [3] des Magic Keyboard für das iPad Air kommt nun in zwei Farben. Apple nennt sie schlicht "Weiß" und "Schwarz". An der heftigen Bepreisung ändert sich leider nichts: Die M3-Variante der Tastaturhülle kostet für das 11-Zoll-Modell 329 Euro, für die 13-Zoll-Variante werden gar 349 Euro fällig. Das ist im übrigen signifikant mehr, als man für die US-Version – wenn auch ohne Sales Tax, also Umsatzsteuer – zahlt: Die 11-Zoll-Variante kostet dort 269 US-Dollar, die 13-Zoll-Version 319 Dollar.

Die hohe Bepreisung für das Magic Keyboard für das iPad hat Apple leider immer so verfolgt. Angesichts der Kosten für das Tablet selbst wirkt dies überzogen. So kann man das iPad Air M3 mit – allerdings mageren – 128 GByte beim Hersteller bereits für 649 Euro erwerben (11 Zoll), würde dann also nur für Tastatur und Trackpad nochmals über die Hälfte hinzuzahlen müssen. Die Preise halten sich zudem recht lange. Wer sein Magic Keyboard erst später erwirbt – also für bereits ältere Modelle – bekommt auch im Handel nicht viel Rabatt.

Keine Schonung fürs Einsteigermodell

Momentan verkauft Apple drei Varianten seiner Tastatur samt Trackpad [4]. Alle heißen Magic Keyboard. Für das iPad Pro (M4 und M5) geht es für die 11-Zoll-Variante bei 349 EUro los. Nutzer des Einsteiger-iPads werden auch nicht geschont: Das Magic Keyboard Folio, das auch Tastatur und Trackpad kombiniert, aber einen ausklappbaren Standfuß benötigt, um nicht umzufallen, steht mit 299 Euro in der Liste.

Das Folio ist zum iPad der 10. und 11. Generation (letztere nennt Apple auch "iPad A16") kompatibel. Apple verkauft das iPad 11 ab 379 Euro mit 128 GByte, auch hier ist der Aufpreis für Tastatur samt Trackpad also mächtig.


URL dieses Artikels:
https://www.heise.de/-10771368

Links in diesem Artikel:
[1] https://www.heise.de/tests/iPad-Air-M3-im-Test-Das-kann-Apples-neues-Mittelklasse-Tablet-10310432.html
[2] https://www.apple.com/de/shop/product/MDFV4D/A/magic-keyboard-f%C3%BCr-das-11-ipad-air-m3-deutsch?afid=p239%7C121977&cid=aos-de-aff-ir
[3] https://www.apple.com/de/shop/product/MDFW4D/A/magic-keyboard-f%C3%BCr-das-13-ipad-air-m3-deutsch?afid=p239%7C121977&cid=aos-de-aff-ir
[4] https://www.apple.com/de/shop/select-ipad-keyboards
[5] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[6] https://www.heise.de/mac-and-i
[7] mailto:bsc@heise.de

Copyright © 2025 Heise Medien

Adblock test (Why?)

  • 17. Oktober 2025 um 12:45

Airbyte 2.0: Datenintegration bis zu sechsmal schneller

Von Heise
Neural,Network,3d,Illustration.,Big,Data,And,Cybersecurity.,Data,Stream.

(Bild: Yurchanka Siarhei / Shutterstock.com)

Die Open-Source-Plattform Airbyte erscheint in Version 2.0 mit deutlich höherer Sync-Geschwindigkeit, Data Activation und einem hybriden Enterprise-Ansatz.

Airbyte hat Version 2.0 seiner freien Datenintegrationsplattform veröffentlicht und verspricht damit eine deutliche Beschleunigung der Datenverarbeitung. Nach Angaben der Entwickler synchronisiert die neue Version Daten im Durchschnitt vier- bis sechsmal schneller als bisher, während sie gleichzeitig den Ressourcenverbrauch optimiert. Die Funktion "Faster Sync Speed" ist nun allgemein verfügbar und soll ELT-Prozesse (Extract, Load, Transform) deutlich effizienter gestalten.

Die wichtigsten neuen Features

Gut ein Jahr nach der Veröffentlichung von Airbyte 1.0 [1] überarbeitet das neue Major Release die Architektur der Open-Source Plattform. Neben der Performance-Steigerung führt Version 2.0 zwei zentrale neue Funktionen ein: Data Activation und Enterprise Flex. Data Activation ermöglicht es Unternehmen, aufbereitete Daten aus ihrem Data Warehouse direkt in operative Systeme wie CRM-Plattformen, Marketing-Tools oder Support-Systeme zurückzuspielen. Damit lassen sich Business-Entscheidungen nicht mehr nur auf Basis von Dashboards und Reports treffen, sondern direkt in den Arbeitstools umsetzen, die Teams täglich nutzen.

Enterprise Flex richtet sich speziell an Unternehmen mit strengen Compliance- und Data-Sovereignty-Anforderungen. Die hybride Architektur kombiniert eine vollständig verwaltete Cloud-Control-Plane mit separaten Data Planes, die Nutzer in ihrer eigenen Infrastruktur betreiben können. Das ist besonders für Organisationen relevant, die aus regulatorischen Gründen – etwa Datenschutz mit der DSGVO – die vollständige Kontrolle über Datenbewegungen behalten müssen, und trotzdem Managed Services einsetzen wollen. Bestehende Airbyte-Cloud-Kunden können auf Enterprise Flex umsteigen.

Der Connector Builder, mit dem Entwickler eigene Konnektoren für APIs und Datenquellen erstellen können, wurde grundlegend überarbeitet. Die Benutzeroberfläche orientiert sich nun stärker an der zugrundeliegenden YAML-Spezifikation, was den Wechsel zwischen UI- und YAML-Modus intuitiver gestalten soll. Nahezu alle Funktionen, die bisher nur im YAML-Modus verfügbar waren, lassen sich nun über die grafische Oberfläche nutzen. Bestehende Custom Connectors migrieren automatisch zur neuen Oberfläche, ohne dass Entwickler eingreifen müssen.

OAuth 2.0 und flexible Stream-Konfiguration

Eine wesentliche Neuerung im Connector Builder ist die vollständige Unterstützung von OAuth-2.0-Flows, einschließlich asynchroner Streams. Jeder Stream lässt sich jetzt mit einer eigenen API-Endpoint-URL und einer individuellen Authentifizierungsmethode konfigurieren – die bisherige globale Konfiguration für Base-URL und Authentifizierung entfällt. Das neue Feld API Endpoint URL ersetzt die vorherigen separaten Felder für URL-Pfad und API-Base-URL. Zudem hat Airbyte die Panels für Parent Streams und Parameterized Requests im neuen Partition Router zusammengeführt. Ein zusätzliches Advanced-Panel macht Funktionen wie Dateitransfers zugänglich, die zuvor nur im YAML-Modus nutzbar waren.

Helm Chart V1 läuft aus – Migration erforderlich

Für Administratoren selbst gehosteter Airbyte-Installationen bringt Version 2.0 eine wichtige Änderung: Es ist die letzte Version, die Helm Chart V1 unterstützt. Ab Version 2.1 wird also Helm Chart V2 zur Pflicht. Neue Deployments sollten daher direkt auf Helm Chart V2 setzen; bestehende Installationen sollten zeitnah migrieren, um künftige Updates nicht zu blockieren. Die Airbyte-Dokumentation bietet separate Migrations-Guides für Core [2] und Self-Managed Enterprise [3]. Wer Airbyte mit dem Tool abctl einrichtet, muss vor dem Upgrade auf Version 2.0 zunächst auf abctl Version 0.30.2 aktualisieren.

Überarbeitete Organisations-Verwaltung

Die Benutzeroberfläche für Organisationen und Workspaces haben die Entwickler ebenfalls neu strukturiert. Die Navigationsleiste trennt nun klar zwischen Organisations- und Workspace-Ebene, die allgemeinen Einstellungen haben sie in separate Bereiche für Organisation und Workspace aufgeteilt. Nutzer-Einstellungen und Anwendungs-Tokens finden sich ab sofort unter dem Benutzernamen im Menü. Organisationen erhalten eine neue Startseite, die alle Workspaces sowie laufende, erfolgreiche und fehlgeschlagene Syncs übergreifend darstellt – eine Art Dashboard-Ansicht für alle zugänglichen Workspaces. Darüber hinaus liefert Version 2.0 mit dem Helm Chart nun standardmäßig Ingress-Konfigurationen aus, was die Einrichtung neuer Deployments vereinfachen soll.

Airbyte 2.0 steht ab sofort sowohl als selbst gehostete Open-Source-Version als auch über Airbyte Cloud zur Verfügung. Die vollständigen Release Notes mit allen technischen Details finden sich im GitHub-Repository [4] des Projekts.


URL dieses Artikels:
https://www.heise.de/-10777748

Links in diesem Artikel:
[1] https://www.heise.de/news/Flexiblere-Datenintegration-mit-der-Open-Source-Plattform-Airbyte-1-0-9953092.html
[2] https://docs.airbyte.com/platform/deploying-airbyte/chart-v2-community
[3] https://docs.airbyte.com/platform/enterprise-setup/chart-v2-enterprise
[4] https://github.com/airbytehq/airbyte/releases/tag/v2.0.0
[5] https://www.heise.de/ix
[6] mailto:fo@heise.de

Copyright © 2025 Heise Medien

Adblock test (Why?)

  • 17. Oktober 2025 um 14:21

APIs in KI integrieren: "Maschinen benötigen eine klare API-Beschreibung"

Von Heise
Hände an Kreis mit API und Symbolen

(Bild: SWKStock/Shutterstock)

Im Interview spricht Erik Wilde über offene Schnittstellen und die richtige Balance zwischen KI und traditionellen Ansätzen.

Erik Wilde

Erik Wilde hat jahrelange Erfahrung im API-Bereich. Als Botschafter bei der OpenAPI-Initiative setzt er sich für den Einsatz offener Standards und Best Practices in API-Design und -Management ein. Auf YouTube betreibt er den Channel Getting APIs to Work [1], der sich an IT-Experten, Entwicklerinnen und Produktmanager richtet. Außerdem hat Wilde zahlreiche Artikel und Bücher geschrieben, und er spricht regelmäßig auf Fachkonferenzen.

iX: Schnittstellen sind ein absolutes Grundkonzept der Softwarearchitektur; man entwirft, implementiert und überarbeitet sie ständig für die Anwendungsprogrammierung. Wann beginnt man, eine Schnittstelle als API zu bezeichnen? Die Semantik dieses Wortes geht über die reine Abkürzung hinaus.

Erik Wilde: Man bezeichnet eine Schnittstelle als API, sobald sie über ihren unmittelbaren Implementierungskontext hinaus von anderen genutzt werden soll. Eine Schnittstelle ist nur eine technische Grenze, eine API hingegen ein veröffentlichter Vertrag. Das bedeutet, dass sie absichtlich offengelegt, dokumentiert und stabil genug ist, damit andere – innerhalb oder außerhalb des Entwicklerteams oder Systems – sich darauf verlassen können. Es ist vor allem der Aspekt der Absicht und des breiteren Publikums, der eine API auszeichnet.

iX: Sind die Ansätze, die eine API für Menschen nützlich und zugänglich machen, nicht dieselben wie diejenigen, die sie für KI, also LLM-basierte Automatisierung, zugänglich machen?

Wilde: Sowohl Menschen als auch Maschinen benötigen zugängliche APIs, jedoch auf unterschiedliche Weise. Für Menschen funktioniert die Dokumentation am besten, wenn APIs einheitliche Muster aufweisen, da das nicht nur das Verständnis erleichtert, sondern auch die Wiederverwendung von Tools und Verfahren für verschiedene APIs ermöglicht. Menschen können auch einen breiteren Kontext heranziehen, ohne verwirrt zu werden. Maschinen hingegen benötigen eine klare, in sich geschlossene Beschreibung jeder API. Selbst wenn die Kontextfenster größer werden, ist mehr Kontext nicht immer hilfreich – KI hat oft Schwierigkeiten, größere Kontexte effektiv zu nutzen.

Menschen schätzen APIs, die offen, wiederverwendbar und flexibel anpassbar sind, während Maschinen mehr von einer geführten Abstraktionsebene profitieren, die den Schwerpunkt darauf legt, was erreicht werden kann und wie dies zu tun ist, anstatt jede mögliche Operation offenzulegen.

iX: Sie haben sich in der Vergangenheit in Ihrem YouTube-Channel "Getting APIs to Work" mit dem ökologischen Fußabdruck von APIs befasst. Wenn man über Softwareeffizienz und CO2-Bewusstsein nachdenkt, passt das dann gut zu dem, was derzeit als Agentic AI beworben wird?

Wilde: Der ökologische Fußabdruck von Agentic AI ist erheblich, da die explorative Nutzung durch Agenten oft zu mehr Orchestrierung, mehr Rechenzyklen und einem höheren Energieverbrauch führt. Das scheint im Widerspruch zu den Bestrebungen nach Effizienz und CO2-Bewusstsein bei Software und APIs zu stehen.

Der Weg nach vorne besteht darin, sie als komplementär zu betrachten: Agenten können kreative Lösungen erforschen und neue Vorgehensweisen aufdecken, aber sobald ein vielversprechender Ansatz gefunden ist, sollte er in einen deterministischen, wiederholbaren Workflow kodifiziert werden, der energieeffizient, skalierbar und überprüfbar ist. Das bringt die Vorteile der Kreativität der KI mit der Notwendigkeit eines nachhaltigen und konformen Betriebs in Einklang, wobei so viel KI wie nötig, aber so wenig wie möglich eingesetzt wird.

Durch das Entwickeln von Architekturen, die einen reibungslosen und bewussten Übergang vom Experimentieren zur effizienten Ausführung ermöglichen, können wir sowohl die Unsicherheit hinsichtlich der Unvorhersehbarkeit der KI als auch die Notwendigkeit angehen, ihren erheblichen Energieverbrauch zu kontrollieren.

iX: In welcher Beziehung steht MCP zu OpenAPI? Verfolgen beide nicht dasselbe Ziel: die Standardisierung der Beschreibung von APIs und deren einfache Zugänglichkeit? Oder ähnelt es eher JSON:API, also der Standardisierung der APIs selbst?

Wilde: Bei MCP, OpenAPI und JSON:API geht es darum, Funktionen verfügbar zu machen, aber sie richten sich an unterschiedliche Nutzer. MCP wurde speziell für LLMs entwickelt und stellt ihnen Tools und Ressourcen zur Verfügung, die auf ihre Arbeitsweise zugeschnitten sind. OpenAPI hingegen richtet sich an Entwickler, die HTTP-APIs nutzen möchten, und konzentriert sich hauptsächlich darauf, Endpunkte zu strukturieren und diesen Schemata hinzuzufügen.

JSON:API fügt eine weitere Ebene hinzu, indem es standardisiert, wie die Schemata strukturiert sind und welche gemeinsamen Konzepte eine API offenlegen sollte, sodass Entwickler von bereits bekannten Konventionen profitieren und Tools wiederverwenden können, die diese unterstützen.

Es ist zwar möglich, MCP-Server automatisch aus OpenAPI zu generieren, aber das führt in der Regel nicht zu den besten Ergebnissen: Bei komplexeren APIs reicht eine Liste von Endpunkten nicht aus, da LLMs das implizite Verständnis fehlt, das Menschen beim Schreiben von Code mitbringen. Das ist der grundlegende Unterschied: OpenAPI und JSON:API gehen davon aus, dass ein menschlicher Developer die Lücken füllen kann, während MCP eine ausreichend aufgabenorientierte Struktur bereitstellen muss, damit ein LLM ohne diese menschliche Intelligenz erfolgreich sein kann.

iX: Machen LLMs bestimmte Ansätze zur Automatisierung überflüssig? Oder sind sie nur ein weiterer Anwendungsfall? Aufgrund der Nicht-Determiniertheit können sie eine zuverlässige Systemintegration vermutlich nicht wirklich ersetzen.

Wilde: Bei der Automatisierung geht es in der Regel um Zuverlässigkeit, Wiederholbarkeit und Effizienz, was LLMs nicht bieten. Sie sind nicht deterministisch, nicht zuverlässig reproduzierbar und nicht besonders effizient. Was sie jedoch bieten, ist eine neue Art von Kreativität: die Fähigkeit, Lücken zu schließen, Lösungen auszuprobieren und chaotischere Teile der Automatisierung zu bewältigen, die mit traditionellen Ansätzen nicht möglich sind.

Am besten betrachtet man sie als ein weiteres Werkzeug im Werkzeugkasten – eines, das wir selektiv einsetzen können, zum Erkunden oder für bestimmte Teile eines Prozesses, aber nicht für die Teile, die strenge Garantien erfordern. Architekturen, die LLM-gesteuerte Erkundung mit kodifizierten, deterministischen Workflows kombinieren, können das Beste aus beiden Welten vereinen: KI, wo Kreativität einen Mehrwert schafft, und traditionelle Automatisierung, wo Zuverlässigkeit unerlässlich ist.

Das Interview führte Richard Wallintin von WPS – Workplace Solutions.


URL dieses Artikels:
https://www.heise.de/-10773518

Links in diesem Artikel:
[1] https://www.youtube.com/@ErikWilde/featured
[2] https://conferences.isaqb.org/software-architecture-gathering/
[3] https://conferences.isaqb.org/software-architecture-gathering/program-2025/
[4] https://conferences.isaqb.org/software-architecture-gathering/session/your-api-is-not-ready-for-ai-yet-a-lifecycle-based-readiness-guide/
[5] mailto:rme@ix.de

Copyright © 2025 Heise Medien

Adblock test (Why?)

  • 17. Oktober 2025 um 12:24

Mein Scrum ist kaputt #141: Training from the Back of the Room

Von Heise
Mein Scrum ist kaputt

(Bild: heise online)

Im agilen Podcast mit Ina Einemann und Sebastian Bauer spricht Simon Flossmann darüber, wie aktives Lernen und Interaktion nachhaltiges Wissen fördern.

Scrum Master oder Agile Coaches stehen immer wieder vor der Herausforderung, Wissen gut zu vermitteln, sei es in Workshops, Trainings oder kurzen Impulsen im Alltag. Das klassische Modell "eine Person redet, die anderen hören zu" ist dabei leider meist das ineffizienteste. Inhalte bleiben nicht hängen und nachhaltige Lernprozesse bleiben aus.

Genau hier setzt die Methode "Training from the Back of the Room" an. Statt Frontalunterricht setzt sie auf aktives Lernen, Interaktion und eigenständiges Denken, basierend auf den sogenannten vier Cs, die für Connections, Concepts, Concrete Practice und Conclusions stehen.

Ina Einemann und Sebastian Bauer begrüßen in dieser Folge ihres agilen Podcasts Simon Flossmann [1]. Er hat unzählige Trainings in der agilen Welt gegeben und kennt diese Methode in- und auswendig. In dieser Folge teilt er seine Erfahrungen und Tipps für nachhaltiges Lernen und zeigt, wie Facilitator, Trainer oder Coaches bessere Lernräume schaffen können, damit die Teilnehmenden wirklich etwas mitnehmen können.

Weitere Hinweise


URL dieses Artikels:
https://www.heise.de/-10776099

Links in diesem Artikel:
[1] https://www.linkedin.com/in/simonflossmann
[2] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[3] http://dpunkt.de/produkt/training-from-the-back-of-the-room/
[4] https://www.scrum.org/simon-flossmann
[5] https://alc.inside-agile.de/?wt_mc=intern.academy.dpunkt.konf_dpunkt_ia_alc.empfehlung-ho.link.link
[6] mailto:mdo@ix.de

Copyright © 2025 Heise Medien

Adblock test (Why?)

  • 17. Oktober 2025 um 10:36

Security: Wie WLAN-Geräte Passanten ausspionieren

Von Heise

Verbundene WLAN-Geräte verraten dem Router auch etwas über die Umgebung. Variiert die Stärke der Funksignale, kann man damit sogar Passanten identifizieren.

Eine Person zwischen einem WLAN-Gerät und dem lokalen Router stört die Übertragung. Mit dem Übertragungsstandard 802.11ac senden angemeldete WLAN-Geräte in regelmäßigen Abständen eine unverschlüsselte Beamforming Feedback Information (BFI) an den Router, eine komprimierte Darstellung der aktuellen Signaleigenschaften. Dieses Feedback soll dabei helfen, die Bandbreite zwischen beiden Geräten zu optimieren.

Auf diese Weise sammelt der Router allerdings von jedem verbundenen Smartphone oder Tablet in der Umgebung Informationen über den jeweiligen Signalweg. Wie sich die Radiowellen ausbreiten, sagt aber auch immer etwas über die räumliche Umgebung und über die Personen im Raum aus, so ähnlich wie ein Foto etwas über die Ausbreitung von Lichtwellen aus einem bestimmten Blickwinkel aussagt, erläutert Thorsten Strufe Professor für praktische IT-Sicherheit am Karlsruher Institut für Technologie (KIT). Mit den BFIs verschiedener Geräte aus verschiedenen Richtungen erhält der Router zahlreiche Informationen über sein Umfeld aus verschiedenen Blickwinkeln.

Bereits seit einigen Jahren versuchen Forscher die Analyse von Kanalzustandsinformationen (Channel State Information, CSI) auszureizen [9] [9]. Die zwischen Router und WLAN-Geräten ausgetauschten CSI dienen als Feedback zur Übertragungsqualität. Um die zu messen, senden die verbundenen Geräte sogenannte Long Training Fields (LTFs) in der Paketpräambel jeder Übertragung. Der Empfänger kann dann das erwartete Signal (die vordefinierten LTFs) mit dem empfangenen vergleichen und Abweichungen zur Fehlerkorrektur nutzen.


URL dieses Artikels:
https://www.heise.de/-10773306

Links in diesem Artikel:
[1] https://www.heise.de/hintergrund/Security-Wie-WLAN-Geraete-Passanten-ausspionieren-10773306.html
[2] https://www.heise.de/hintergrund/Was-Wi-Fi-8-bringt-Neue-Funktionen-fuer-stabileres-WLAN-10543749.html
[3] https://www.heise.de/ratgeber/FAQ-Internetprotokoll-IPv6-10498571.html
[4] https://www.heise.de/tests/Powerline-WLAN-Basis-Devolo-Magic-2-WiFi-6-im-Test-10487357.html
[5] https://www.heise.de/hintergrund/So-funktioniert-das-Ultra-Ethernet-10477044.html
[6] https://www.heise.de/news/AVM-Fritzbox-Moeglicher-Serienfehler-bei-mehreren-Modellen-10438439.html
[7] https://www.heise.de/tests/OpenWrt-Router-BananaPi-Router-R3-im-Test-10397102.html
[8] https://www.heise.de/tests/Guenstige-DSL-und-TV-Kabel-Anschluesse-im-Vergleich-10392531.html
[9] https://www.heise.de/news/Biometrie-per-WLAN-Signalstoerungen-erlauben-Personenerkennung-und-Ueberwachung-10515620.html

Copyright © 2025 Heise Medien

Adblock test (Why?)

  • 17. Oktober 2025 um 12:00

Bambu Lab P2S: Überarbeiteter Klassiker setzt neue Maßstäbe im 3D-Druck

Von Marcus Hansson

(Bild: Bambulab.com)

Bambu Lab hebt mit dem P2S den 3D-Druck auf ein neues Niveau – mit neuem Extruder, KI-Fehlererkennung und adaptiver Kühlung für präzise Ergebnisse.

Wenn Bambu Lab ein neues Gerät ankündigt, schaut die Maker-Community inzwischen so gespannt hin wie Technikfans bei einem Apple-Event. Der P2S, Nachfolger des populären, aber nicht perfekten [1], P1S, wurde in den sozialen Kanälen entsprechend gefeiert und die Präsentation war strategisch getaktet mit Teasern und einem festen Enthüllungstermin – Dienstag, der 14. Oktober. Der chinesische Hersteller hat zahlreiche Detailverbesserungen in ein vertrautes, aber überarbeitetes Gehäuse gepackt – eine gezielte Modernisierung für anspruchsvolle Bastler und kleine Fertigungsbetriebe.

70 Prozent mehr Extrusionskraft

Das Herzstück ist der neue PMSM-Servo-Extruder. Statt klassischer Stepper-Motoren nutzt Bambu Lab eine geschlossene Regelschleife, die den Materialfluss 20.000-mal pro Sekunde überwacht. Bis zu 8,5 kg Extrusionskraft – rund 70 Prozent mehr als beim Vorgänger – soll für stabile Linien auch bei hohen Geschwindigkeiten sorgen. Die Sensorik soll Abrieb oder Verstopfungen frühzeitig erkennen, was primär bei abrasiven Filamenten von Vorteil ist.

Das neue Luftmanagement wechselt zwischen Kalt- und Wärmemodus. Für PLA oder PETG wird Frischluft von außen zugeführt; für technische Kunststoffe hält ein Wärmespeichermodus rund 50 °C im Bauraum. Ein Aktivkohlefilter reduziert Geruch und Partikel – praktisch in geschlossenen Werkstätten. Das System reagiert adaptiv auf Geometrie und Material, um Fadenbildung und Warping zu vermeiden.

(Bild: Bambulab.com)

Mit einer KI-Fehlererkennungsfunktion soll der P2S typische Probleme wie "Spaghettidruck", verstopfte Düsen oder Luftdrucke automatisch erkennen. Eine integrierte Neural Processing Unit analysiert die 1080p-Kamerabilder und prüft vor Druckstart, ob Düse, Bett und Parameter passen. Das soll Fehldrucke und Materialverluste spürbar reduzieren.

(Bild: Bambulab.com)

Kritik aus der Community

Während viele Nutzer in Foren und frühen YouTube-Reviews [2] den P2S bereits als nahezu perfekten Allrounder loben [3], sind die Reaktionen nicht durchweg euphorisch. Positiv hervorgehoben werden vor allem die verbesserte Zuverlässigkeit und die spürbar ruhigere Extrusion – einige Maker berichten von konsistenteren Oberflächen bei hohen Geschwindigkeiten und deutlich weniger Nacharbeit. Kritik gibt es jedoch an Bambu Labs zunehmend geschlossenem System [4]: Anpassungen tiefer in der Firmware oder alternative Slicer-Profile sind nur eingeschränkt möglich, was in der Community für gemischte Gefühle sorgt. Auch der Ersatzteil- und Reparaturprozess wird teilweise als zu stark an den Hersteller gebunden kritisiert.

Zum Preis von 519 Euro [5] (749 Euro mit AMS 2 Pro [6] für Mehrfarben- und integrierte Filamenttrocknung) gelingt Bambu Lab erneut der Spagat zwischen Hobby und Pro-Niveau. Insgesamt demonstriert der P2S, wie weit der Desktop‑3D‑Druck inzwischen gereift ist – weg vom Bastelprojekt, hin zu kontrollierter Prozessstabilität und präziser Reproduzierbarkeit. Für die Maker‑Community bedeutet das schnellere, verlässlichere Drucke und eine klar erkennbare Annäherung an professionelle Fertigungsstandards.


URL dieses Artikels:
https://www.heise.de/-10771226

Links in diesem Artikel:
[1] https://www.heise.de/news/BambuLab-P1S-Gemischte-Gefuehle-und-jede-Menge-Muell-9334565.html
[2] https://www.youtube.com/watch?v=uq4YoTXWvVg
[3] https://www.youtube.com/watch?v=PVdxJm9LcAE
[4] https://www.heise.de/news/Bambu-Lab-Sicherheitsfeature-sperrt-Dritt-Slicer-aus-10248408.html
[5] https://eu.store.bambulab.com/products/p2s?from=home_page_3dprinter&id=654444275327889410
[6] https://eu.store.bambulab.com/products/p2s?sv1=affiliate&sv_campaign_id=103504
[7] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[8] mailto:mch@make-magazin.de

Copyright © 2025 Heise Medien

Adblock test (Why?)

  • 16. Oktober 2025 um 12:39

LattePanda IOTA kombiniert Intel-CPU mit RP2040

Von Daniel Schwabe
Man sieht das Board von schräg oben. Es ist ein kleines Board mit PC-IO.

(Bild: LattePanda)

Das neue LattePanda IOTA kombiniert eine Intel-x86-CPU mit RP2040-Co-Prozessor – interessant für Maker.

LattePanda hat mit dem IOTA [1] ein neues Einplatinen-System vorgestellt. Das Board basiert auf dem x86 Intel-Prozessor N150 mit vier Kernen und bis zu 3,6 GHz Taktfrequenz. Es ist wahlweise mit 8 oder 16 GB LPDDR5-RAM und 64 oder 128 GB eMMC-Speicher erhältlich.

Die Ausstattung richtet sich an Anwender, die ein vollwertiges x86-System in kompakter Form benötigen. Neben drei USB-3.2-Gen2-Ports bietet das Board Gigabit-Ethernet, HDMI 2.1 mit 4K-Ausgabe, eDP-Schnittstelle, Audioanschluss, einen M.2-E-Key-Slot für Erweiterungen und einen microSD-Kartenleser. Für die Nutzung des RP2040 in Projekten stehen natürlich auch dessen GPIO-Pins zur Verfügung. Über optionale Erweiterungsplatinen kann der IOTA zudem um PoE-, LTE- oder UPS-Module ergänzt werden.

Passive oder aktive Kühlung

Der IOTA hat Abmessungen von 88 × 70 × 19 Millimeter. Die Energieversorgung erfolgt über USB-C mit Power Delivery (15 V) oder über einen separaten 4-Pin-Anschluss (10 bis 15 VDC). Das Board kann passiv oder aktiv gekühlt betrieben werden, je nach Leistungsbedarf. Durch die kompakte Bauform eignet es sich für den Einbau in Gehäuse, Steuerboxen oder mobile Geräte.

Zusätzlich zu dem Intel-Prozessor ist auf dem Board auch ein RP2040-Co-Prozessor integriert. Der Mikrocontroller arbeitet unabhängig vom Hauptprozessor und kann Sensoren, Motoren oder andere Aktoren direkt ansteuern. Für Maker und Entwickler ergibt sich daraus ein Vorteil: Echtzeitsteuerung und Anwendungslogik lassen sich auf derselben Platine trennen, ohne zusätzliche Mikrocontroller-Boards einsetzen zu müssen. So kann beispielsweise ein Steuerungssystem Messdaten lokal verarbeiten, während die x86-CPU Auswertungen übernimmt. Auch für Lehrzwecke oder Laborumgebungen bietet sich das Board an, da es klassische PC-Software mit typischer Elektronik-Peripherie verbindet.

Das System unterstützt Windows 10 und 11 sowie Ubuntu 22.04 und 24.04. Das heißt, man könnte einen Smarthome-Server direkt auf dem Board laufen lassen, eine lokale Datenanalyse betreiben oder Desktop-basierte Software nutzen.

Für den LattePanda IOTA steht auf der offiziellen Webseite die Dokumentation [2] und ein Quickstart-Guide bereit. Der Preis für die Ausführung mit 8 GB RAM und 64 GB eMMC liegt bei 129 US-Dollar und für die Version mit 16 GB RAM und 128 GB eMMC Version bei 175 US-Dollar. Beides jeweils ohne Windows-Lizenz. Wer mehr über den RP2040 wissen will, findet hier unseren Test zum Pi Pico W [3].


URL dieses Artikels:
https://www.heise.de/-10767169

Links in diesem Artikel:
[1] https://www.lattepanda.com/lattepanda-iota
[2] https://docs.lattepanda.com/content/iota_edition/specification/
[3] https://www.heise.de/tests/Pi-Pico-mit-WLAN-im-Test-7186692.html
[4] https://www.heise.de/make
[5] mailto:das@make-magazin.de

Copyright © 2025 Heise Medien

Adblock test (Why?)

  • 15. Oktober 2025 um 13:53

3D-Druck erobert die Luft- und Raumfahrtbranche

Von Ulrich Schmitz
Anastasiya Tönjes und Mika Altmann mit einem 3D-Bauteil in der Hand

Gemeinsam forschen Anastasiya Tönjes und Mika Altmann an neuen Materialien.

(Bild: U Bremen Research Alliance)

Die U Bremen Research Alliance entwickelt 3D-gedruckte leichte Titanbauteile sowie umweltfreundliche Lacksysteme und smarte Reparaturkonzepte.

Mika Altmann sprüht vor Begeisterung für 3D-Druck: "Wir können mithilfe von Lasern Materialien entwickeln, die auf konventionellem Wege gar nicht erzeugbar sind. Wir können die Eigenschaften eines Bauteils bestimmen, seine Struktur, wie fest oder dehnbar er ist. Wir können aber auch kleinste Bereiche im Material anders gestalten." Die Potenziale des Verfahrens sieht Altmann noch längst nicht ausgeschöpft. Genau das treibt den Doktoranden am Leibniz-Institut für Werkstofforientierte Technologien an. Altmann arbeitet am Projekt "Technologien und Reparaturverfahren für nachhaltige Luftfahrt in Kreislaufwirtschaft" (TIRIKA).

Vorzüge 3D-gedruckter Teile

Dabei geht es auch darum, Verfahren zu verbessern, mit dem 3D-gedruckte Titanbauteile wirtschaftlicher und ökologischer hergestellt werden können. Ein Bereich ist die Herstellung nicht sicherheitskritischer Verbindungselemente wie Brackets, die in vielen Bereichen eines Flugzeugs eingesetzt werden. Um die beim 3D-Druck entstehenden Poren der Bauteile zu schließen, werden diese bislang in einem komplizierten Verfahren einer Kombination aus Hitze, Druck und anschließender Abkühlung unterzogen. Das geschieht in einem Hochdruckzylinder bei Temperaturen bis zu 1.400 Grad Celsius bei 2.000 bar Druck unter Verwendung von Argon, einem Edelgas. Das Problem: "Das Verfahren ist energieintensiv und sündhaft teuer", so Altmann.

Das Team um Altmann variiert Temperaturbereiche und Zeiten, um Festigkeit, Härte und Dehnungsfähigkeit zu optimieren. "Den Hochdruckofen haben wir zum Beispiel mit zehn bis 15 Grad Celsius pro Minute aufgeheizt und mit bis zu 1.600 Grad Celsius pro Minute abgekühlt", erklärt der Forscher. Ziel ist, das Potenzial des schichtweise aufgebauten Materials zu maximieren, Grenzen auszuloten und Schwachstellen zu identifizieren. In zahlreichen Tests stellten die Wissenschaftler Proben her, analysierten deren Eigenschaften und verglichen die Ergebnisse eines Schutzgasofens mit denen des Hochdruckverfahrens. "Wir haben sehr vielversprechende Ergebnisse erzielt", betont Altmann.

Höhere Festigkeit bei geringerem Gewicht

Mit dem 3D-Druck beschäftigt sich auch das Fraunhofer-Institut für Fertigungstechnik und Angewandte Materialforschung IFAM. Ein Forsschungsziel liegt in der vereinfachten Entfernung von Stützstrukturen, die komplexe Bauteile während des Drucks stabilisieren. "Nach dem Druck müssen sie sehr aufwendig per Hand entfernt werden", erläutert Stefan Dieckhoff, Abteilungsleiter Adhäsions- und Grenzflächenforschung am IFAM. Wie der Informationsdienst Wissenschaft (IDW) berichtete [1], wurden so bis zu 15 Prozent festere Bauteile entwickelt. Zugleich braucht die Herstellung weniger Material, um die angestrebten Eigenschaften zu erreichen. Gewichtseinsparung bedeutet besonders im Bereich Luft- und Raumfahrtechnik weniger Treibstoff und geringere Kosten, sowohl im Betrieb als auch bei der Herstellung der Bauteile.

Das vom Bundesministerium für Wirtschaft und Energie mit rund 20 Millionen Euro geförderte Projekt TIRIKA vereint unter Leitung von Airbus Operations in Bremen etwa ein Dutzend Partner aus Wissenschaft und Wirtschaft. Diese erforschen Ansätze für nachhaltige Luftfahrt, darunter Recycling von Metallen und Kunststoffen, Alternativen zu Gefahrstoffen, digitalisierte Prozesse, umweltfreundlichere Reparaturmethoden und Maßnahmen zur Gewichtsreduktion.

"Der Reiz von TIRIKA ist die Themenvielfalt. Das habe ich in dieser Größe und Breite bei einem Luftfahrtforschungsprojekt noch nicht erlebt", sagt Dieckhoff, der seit 1992 am IFAM tätig ist. "TIRIKA ist ein Leuchtturmprojekt, in dem viele unterschiedliche Disziplinen im Verbund mit Unternehmen gemeinsam für mehr Nachhaltigkeit in der Luftfahrt forschen. Das ist schon etwas Besonderes", pflichtet ihm Anastasiya Tönjes bei. Sie leitet am Leibniz-Institut für Werkstofforientierte Technologien die Abteilung Leichtbauwerkstoffe. Für Tönjes ist das Projekt auch ein Beleg für die Stärke des Wissenschaftsstandortes Bremen.


URL dieses Artikels:
https://www.heise.de/-10752154

Links in diesem Artikel:
[1] https://idw-online.de/de/news859301
[2] https://www.heise.de/make
[3] mailto:usz@heise.de

Copyright © 2025 Heise Medien

Adblock test (Why?)

  • 14. Oktober 2025 um 05:30

Maker Bits: Software, Hardware und Infos für Maker

Von Carsten Wartmann

(Bild: KI / heise medien)

Oft finden wir bei der Recherche auch Beifang in Form von kleinen Tools, neuer Hard- und Software sowie spannenden Themen. Hier eine kleine Auswahl.

OrcaSlicer 2.3.1

Der beliebte Open-Source-Slicer OrcaSlicer ist in Version 2.3.1 erschienen [1] und bringt zahlreiche Detailverbesserungen sowie Fixes mit. Neben einem überarbeiteten Updater und optimierten Build-Prozessen wurden diverse neue Druckerprofile integriert, darunter Modelle von Flyingbear, Sovol (SV08 MAX, SV01) und Rolohaun. Auch bestehende Profile, etwa für den Anycubic Kobra oder Ender 3 V3 KE, erhielten Feintuning.

Für eine stabilere Druckqualität sorgen Verbesserungen beim Input Shaping und bei der G-Code-Verarbeitung, speziell bei Z-Achsen-Bewegungen. Zudem behebt die neue Version einen Bug, der bei bestimmten Prusa-Modellen falsche Druckereinstellungen auswählte, sowie einen Importfehler bei 3MF-Dateien aus älteren Alpha-Versionen. Neue Komfortfunktionen wie die Erinnerung an die Slider-Position im Einzel-Layer-Modus, überarbeitete Übersetzungen und ein Warnsystem für die "Infill Rotation"-Templates runden das Update ab.

Praktisch wird es in einem YouTube-Video von YouTuber Teaching Tech [2]: Stabile und doch schnell zu druckende Objekte können durch rotierbare Infills (per Listen auch für mehrere Abschnitte im Modell), Multiline-Infill und extra komplett gefüllten Zwischenlagen erzeugt werden.

Fuzzy-Skin erzeugt wie bisher auch künstlich angeraute Oberflächen auf den Drucken, sei es zu dekorativen Zwecken oder um die Griffigkeit zu erhöhen. Die kann entweder durch kleine Bewegungen des Druckkopfes und(!)/oder neu auch durch Variation der Flussrate geschehen. Neu ist auch, dass man die Stellen, wo dies geschehen soll, per Aufmalen mit der Maus steuern kann.

Das Optimieren des Input-Shapings wird mit neuen Druckvorlagen noch einfacher und schneller, und man kann nun auch Bereiche für Resonanzvermeidung angeben.

Für Multifarb-Drucke ist es jetzt möglich, Filamente komplett zu tauschen, ohne eine umständliche Auswahl mit der Maus machen zu müssen, ideal für Multi-Color-Objekte, die man nicht selbst gesliced hat.

Zum Download sollte man übrigens nur das offizielle Softfever-Github [4] oder neu die offizielle Website orcaslicer.com [5] nutzen! Alle anderen Adressen, die in einer Suche auftauchen, könnten potenzielle Phising-Fallen werden, auch wenn sie jetzt noch auf das offizielle Repository zeigen. Die Dokumentation ist wie gehabt auf dem GitHub-Wiki [6] zu finden.

Raspberry Pi OS "Trixie"

Raspberry Pi hat eine neue Version seines Betriebssystems für die Raspberry-Pi-Boards [7] veröffentlicht. Die neue Version von Raspberry Pi OS aktualisiert das Basis-Betriebssystem von Debian 12 auf Debian 13 ("Trixie"). Es gibt ein neues Design mit neuen Symbolen und einem neuen Hintergrundbild sowie ein brandneues Kontrollzentrum zum Konfigurieren von Elementen wie Tastatur, Bildschirmen, Hinzufügen von Druckern usw. Die Release-Logs sind lang und im GitHub einzusehen. [8]

Am einfachsten ist die Installation auf eine Speicherkarte mit dem Raspberry Pi Imager [9], mit dem auch schon einige wichtige Einstellungen für das System (Netzwerk, ssh, etc.) direkt erledigt werden können.

Blender 5.0 in den Startlöchern

Mit Blender 5.0 steht ein großer Versionssprung für die Open-Source-3D-Suite bevor. Neben massiven Leistungsverbesserungen bringt das Update zahlreiche Komfortfunktionen und eine runderneuerte Oberfläche. Die finale Veröffentlichung ist für den 11. November 2025 geplant, die Beta startete am 1. Oktober [10] (auch wenn sie sich als Alpha ausgibt), der Release Candidate am 5. November.

(Bild: Blender.org)

Das Releasedatum ist bisher nicht 100-prozentig fix, denn mit der aktuellen Beta-Version von Blender 5.0 könnten noch Fehler gemeldet werden, die das Release verzögern. Die aktuellen Release Notes [11] geben einiges an Lesestoff. Aufregend finde ich persönlich die weiteren Verbesserungen am Sequencer, der immer mehr zum Videoeditor wird und nun auch den Compositor besser einbindet.

Massive Geometrie & neue Limits: Die neue Version kann inzwischen mit großen Meshes umgehen – ideal für aufwendige 3D-Scans, High-Poly-Modelle und riesige Szenen. Dateien aus Blender 5.0 lassen sich allerdings nicht mehr in älteren Versionen (unter 4.5) öffnen, umgekehrt funktioniert das aber weiterhin.

Grease Pencil mit Motion Blur: Ein Highlight für 2D/3D-Hybride: Das Grease-Pencil-Tool bekommt erstmals Motion-Blur-Unterstützung beim Rendern. Animierte Zeichnungen sollen damit flüssiger und filmischer wirken.

Feinschliff an der Oberfläche: Blenders UI wird weiter poliert – mit verbessertem Drag-and-drop, klareren Outliner-Rückmeldungen, einheitlicheren Widgets und kleineren Layoutanpassungen. Auch der Video-Sequencer wurde überarbeitet: Neue Clips erscheinen jetzt direkt unter dem Mauszeiger statt irgendwo in der Timeline.

Work-in-Progress: Cycles, Geometry Nodes und mehr: Viele zentrale Bereiche, von den Geometry Nodes über Sculpting bis zum Compositing, sind noch in Arbeit. Spekuliert wird über Animation Layers und eine überarbeitete UV-Sync-Selection – lang ersehnte Features der Community.

Für Add-on-Entwickler und Studios heißt das: rechtzeitig testen [12]. Blender 5.0 könnte nicht nur größer, sondern auch wegweisend für die kommenden Jahre in der 3D-Open-Source-Welt werden.


URL dieses Artikels:
https://www.heise.de/-10733429

Links in diesem Artikel:
[1] https://github.com/SoftFever/OrcaSlicer/releases/tag/v2.3.1
[2] https://www.youtube.com/@TeachingTech
[3] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[4] https://github.com/SoftFever/OrcaSlicer/releases/tag/v2.3.1
[5] https://www.orcaslicer.com/
[6] https://github.com/SoftFever/OrcaSlicer/wiki
[7] https://www.heise.de/news/Raspberry-Pi-OS-wechselt-auf-Debian-Trixie-Basis-10722458.html
[8] https://downloads.raspberrypi.com/raspios_arm64/release_notes.txt
[9] https://www.raspberrypi.com/software/
[10] https://builder.blender.org/download/daily/
[11] https://developer.blender.org/docs/release_notes/5.0/
[12] https://builder.blender.org/download/daily/
[13] https://www.heise.de/make
[14] mailto:caw@make-magazin.de

Copyright © 2025 Heise Medien

Adblock test (Why?)

  • 07. Oktober 2025 um 16:15

Ab 39 Euro: Qualcomm kauft Arduino und stellt Raspi-Konkurrenten vor

Von Mark Mantel
Arduino Uno Q vor weiß-grauem Hintergrund

(Bild: Arduino)

Der Einplatinencomputer Arduino Uno Q bekommt einen Qualcomm-Prozessor. Er ermöglicht ähnliche Projekte wie ein Raspberry Pi.

Qualcomm übernimmt den für seine Mikrocontroller-Boards bekannten Hersteller Arduino. Direkt zur Übernahme stellt Qualcomm seinen ersten Einplatinencomputer für Bastelprojekte vor: den Arduino Uno Q. Saßen auf bisherigen Uno-Boards nur kleine Mikrocontroller für simple Aufgaben, kommt der Uno Q mit einem Chipduett aus Mikrocontroller (MCU) und Mikroprozessor (MPU), sodass etwa Linux eigenständig auf dem Board läuft.

Schon die MCU in Form des STMicroelectronics STM32U585 ist deutlich schneller als der Renesas RA4M1 auf dem Arduino Uno R4 [1]. Die neue Variante setzt auf den ARM-Kern Cortex-M33 mit 160 MHz (Uno R4: Cortex-M4, 48 MHz).

Arduino Uno Q (0 Bilder) [2]

[3]

Ab Oktober und 39 Euro

Zusätzlich sitzt Qualcomms Dragonwing QRB2210 auf der Platine. In ihm stecken vier ARM-Kerne vom Typ Cortex-A53, die 2,0 GHz schaffen. Außerdem gibt es eine integrierte Grafikeinheit und Zusatzblöcke wie Bildsignalprozessoren. Arduino und Qualcomm bewerben das Board auch für KI-Anwendungen (Edge AI).

Eine eigenständige KI-Einheit hat der QRB2210-Prozessor nicht, allerdings sollen die CPU und die GPU für einige KI-Algorithmen ausreichen, etwa zur Bilderkennung. Nützlich dafür: Der QRB2210 kann zwei Bildsensoren mit jeweils 13 Megapixeln oder einen einzelnen 25-Megapixel-Sensor ansteuern. Ein Hardware-De- und Enkodierer beherrscht H.265 und H.264 für 1080p-Videos mit 30 fps.

Zum Start bringt Arduino eine Variante mit 2 GByte LPDDR4-RAM und 16 GByte NAND-Flash-Speicher (eMMC) für 39 Euro auf den Markt. Sie soll ab heute vorstellbar und ab dem 25. Oktober verfügbar sein. Eine Version mit 4 GByte RAM und 32 GByte Flash soll ab November für 53 Euro vorbestellbar sein und bis zum Jahresende folgen. Ein Funkmodul für Wi-Fi 5 (2,4 + 5 GHz) und Bluetooth 5.0 ist stets dabei.

Übersicht der Komponenten auf dem Arduino Uno Q

Alle Komponenten des Arduino Uno Q. Prozessor und Mikrocontroller befinden sich auf gegenüberliegenden Seiten.

(Bild: Arduino)

Alte Technik mit viel Leistung für Arduino-Verhältnisse

Das Cortex-A53-Kerndesign ist bereits 13 Jahre alt [4], ist aber für viele Bastelprojekte schnell genug. Damals saß er als Effizienzkern in vielen Smartphone-Prozessoren. CPU-seitig ist der Arduino Uno Q grob mit dem Raspberry Pi 3 von 2016 [5] vergleichbar. Dessen Broadcom-BCM2837-Prozessor nutzt ebenfalls vier Cortex-A53-Kerne, die ab Werk mit 1,2 GHz allerdings ein gutes Stück niedriger takten.

Charmant erscheint die Kombination aus Mikrocontroller und Mikroprozessor aus Effizienzsicht. Auf dem integrierten Speicher des STMicro-Chips läuft Arduino Core, basierend auf Zephyr OS. Der Qualcomm-Prozessor kann sich fast komplett schlafen legen, wenn dessen Leistung nicht notwendig ist. Auf ihm laufen Debian-Linux-Betriebssysteme mit Upstream-Support sowie Unterstützung für Docker und Docker Compose.

Das neue Arduino App Lab dient als Entwicklungsumgebung für die CPU, GPU und MCU. Die Arduino-Entwickler betonen, dass sie auch nach der Qualcomm-Übernahme auf Open-Source setzen – Hardware-Komponenten wollen sie unter der Lizenz CC BY-SA 4.0 offenlegen, Software unter GPL3 und MPL.

Wenige Anschlüsse

Der größte Unterschied zu Raspberry-Pi-Einplatinencomputern liegt bei den Anschlüssen. Außer den GPIO-Pinleisten hat der Arduino Uno Q ausschließlich einen USB-C-Anschluss. Der Hersteller sieht den Einsatz eines USB-Hubs für die Stromversorgung (5 Volt, 3 Ampere), HDMI-Bildausgabe (max. 1680 x 720 Pixel mit 60 Hertz) und Peripherie vor. Der Anschluss schafft allerdings nur USB-2.0-Geschwindigkeit. Alternativ bekommt der Arduino Uno Q über GPIO-Pins Strom.

Es gibt keine eigenständigen Bildausgänge, keinen SD-Kartenslot zur Speichererweiterung und kein PCI Express (etwa für eine SSD). Qualcomm und Arduino versehen die Platinenunterseite allerdings mit neuen Pinleisten, für die künftig Erweiterungs-Boards erscheinen sollen, Arduino Carriers genannt.

Die Platinenbauform, Positionierung der Header (QWIIC, SPI 3V3) und GPIO-Pinleisten bleiben identisch, sodass bisherige Gehäuse und Zusatz-Hardware weiter passen. Auch die LED-Matrix ist weiterhin mit dabei. Der Arduino Uno Q versteht sich unter anderem auch auf die Interfaces I2C/I3C, CAN, UART, PSSI, JTAG und ADC.

Tabelle mit den Spezifikationen zum Arduino Uno Q.

Spezifikationen des Arduino Uno Q.

(Bild: Arduino)


URL dieses Artikels:
https://www.heise.de/-10733137

Links in diesem Artikel:
[1] https://www.heise.de/ratgeber/Ausprobiert-Wie-sich-die-aktuellen-UNOs-von-Arduino-in-der-Praxis-schlagen-9209725.html
[2] https://www.heise.de/bilderstrecke/4951855.html?back=10733137;back=10733137
[3] https://www.heise.de/bilderstrecke/4951855.html?back=10733137;back=10733137
[4] https://www.heise.de/news/ARM-stellt-64-Bit-Prozessorkerne-Cortex-A53-und-A57-vor-1740587.html
[5] https://www.heise.de/news/Raspberry-Pi-3-mit-WLAN-Bluetooth-und-64-Bit-3119537.html
[6] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[7] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[8] mailto:mma@heise.de

Copyright © 2025 Heise Medien

Adblock test (Why?)

  • 07. Oktober 2025 um 15:00

FreshRSS 1.27.1

Von Alkarex

This is a security-fix and bug-fix release for FreshRSS 1.27.x.

A few highlights ✨:

  • Keep sort and order criteria after marking as read
  • Automatic database recovery: skip broken entries during CLI export/import
  • Add possibility of Docker healthcheck
  • Add security option for CSP frame-ancestors
  • Several security fixes
  • Several bug fixes
  • New translation to Ukrainian
  • Improvements of some themes
  • And much more…

This release has been made by @Alkarex, @Frenzie, @Inverle, @aledeg, @math-GH and newcomers @beerisgood, @nykula, @horvi28, @nhirokinet, @rnkln, @scmaybee.

Full changelog:

  • Features
    • Automatic database recovery: skip broken entries during CLI export/import #7949
    • Add security option for CSP frame-ancestors #7857, #8021
    • Lazy-load <track src> #7997
  • Security
    • Regenerate session ID on login #7829
    • Disallow setting non-existent language #7878, #7934
    • Safer calling of install.php #7971
    • Prevent log CR/LF injection #7883
    • Restrict allowed cURL parameters #7979, #8009
    • Fix reauthentication while updating #7989
    • Fix some CSRFs #8000
  • Bug fixing
    • Include port number for HTTP Retry-After #7875
    • Fix logic for searching labels #7863
    • Fix cURL response parsing for HTTP redirections #7866
    • Fix fetching OPML URL with special characters #7843
    • Fix validation when creating a new user label #7890
    • Fix bug in user self-deletion #7877
    • Fix displaying of current date in main statistics #7892
    • Fix default values on stat processing #7891
    • Fix UI JavaScript error when navigating to last article with keyboard #7957
    • Fix some links in anonymous mode #8011, #8012
    • Fixes for no-cache.txt #7907
    • Fix Docker Traefik .yml and SERVER_DNS example #7858
  • SimplePie
    • Upstream contribution: Normalize encoding uppercase simplepie#936, #7967
    • Sync upstream, including bump to 1.9.0 with better PHP 8.5+ support #7955
  • Deployment
    • Docker improve CMD compatibility #7861
    • Add possibility of Docker healthcheck #7945
  • UI
    • Keep sort and order after marking as read #7974
    • Improve leave validation #7830
    • Improve Origine theme visibility of toggle buttons #7956
    • Improve Dark pink theme #8020
    • Improve Mapco and Ansum themes: read all button in mobile view #7873
    • Improve Swage theme #7608
    • Use standard CSS overflow-wrap instead of word-wrap #7898
    • Various UI and style improvements: #7868, #7872,
      #7882, #7893, #7904,
      #7952
  • I18n
    • Clarify the concepts of visibility hidden vs. archived in feeds settings #7970
    • Translate the API information page #7922
    • Add a default language constant #7933
    • Label config delete label #7871
    • Add Ukrainian #7961
    • Improve Dutch #7940
    • Improve German #7833
    • Improve Hungarian #7986
    • Improve Japanese #7903, #7918
    • Improve Polish #7963
    • Improve Simplified Chinese #7943, #7944
    • Minor improvements #7881
    • Add CLI command to add i18n file #7917
    • Add make target to generate the translation progress #7905
  • Extensions
    • Add entry_before_update and entry_before_add hooks for extensions #7977
  • Misc.
  • 27. September 2025 um 15:07

FreshRSS 1.27.0

Von Alkarex

A few highlights ✨:

  • Implement support for HTTP 429 Too Many Requests and 503 Service Unavailable, obey Retry-After
  • Add sort by category title, or by feed title
  • Add search operator c: for categories like c:23,34 or !c:45,56
  • Custom feed favicons
  • Several security improvements, such as:
    • Implement reauthentication (sudo mode)
    • Add Content-Security-Policy: frame-ancestors
    • Ensure CSP everywhere
    • Fix access rights when creating a new user
  • Several bug fixes, such as:
    • Fix redirections when scraping from HTML
    • Fix feed redirection when coming from WebSub
    • Fix support for XML feeds with HTML entities, or encoded in UTF-16LE
  • Docker alternative image updated to Alpine 3.22 with PHP 8.4 (PHP 8.4 for default Debian image coming soon)
  • Start supporting PHP 8.5+
  • And much more…

This release has been made by @Alkarex, @Inverle, @the7thNightmare and newcomers @Deioces120, @Fraetor, @Tarow, @dotsam, @hilariousperson, @pR0Ps, @triatic, @tryallthethings

Full changelog:

  • Features
    • Implement support for HTTP 429 Too Many Requests and 503 Service Unavailable, obey Retry-After #7760
    • Add sort by category title, or by feed title #7702
    • Add search operator c: for categories like c:23,34 or !c:45,56 #7696
    • Custom feed favicons #7646, #7704, #7717,
      #7792
    • Rework fetch favicons for fewer HTTP requests #7767
    • Add more unicity criteria based on title and/or content #7789
    • Automatically restore user configuration from backup #7682
    • API add support for states in s parameter of streamId #7695
    • Improve sharing via Print #7728
    • Redirect to the login page from bookmarklet instead of 403 #7782
    • Clean local cache more often, when refreshing feeds #7827
  • Security
    • Implement reauthentication (sudo mode) #7753
    • Add Content-Security-Policy: frame-ancestors #7677
    • Ensure CSP everywhere #7810
    • Show warning when unsafe CSP policy is in use #7804
    • Fix access rights when creating a new user #7783
    • Improve security of form for user details #7771, #7786
    • Disallow setting non-existent theme #7722
    • Regenerate cookie ID after logging out #7762
    • Require current password when setting new password #7763
    • Add missing access checks for feed-related actions #7768
    • Strip more unsafe attributes such as referrerpolicy, ping #7770
    • Remove unneeded execution permissions #7802
  • Bug fixing
    • Fix redirections when scraping from HTML #7654, #7741
    • Fix multiple authentication HTTP headers #7703
    • Fix HTML queries with a single feed #7730
    • WebSub: only perform a redirection when coming from WebSub #7738
    • Include enclosures in entries’ hash #7719
      • Negative side-effect: users of the option to automatically mark updated articles as unread will once have some articles with enclosures re-appear as unread
    • Fix cancellation of slider exit UI #7705
    • Honor disable update on update page #7733
    • Fix no registration limit setting #7751
    • Fix XML encoding of sharing functions #7822
  • SimplePie
  • Deployment
    • Docker default image (Debian 12 Bookworm) updated to PHP 8.2.29 #7805
    • Docker alternative image updated to Alpine 3.22 with PHP 8.4.11 and Apache 2.4.65 #7740, #7740,
      #7803
    • Start supporting PHP 8.5+ #7787, #7826
      • Docker Alpine dev image :newest updated to PHP 8.5-alpha and Apache 2.4.65 #7773
    • Docker: interpolate FRESHRSS_INSTALL and FRESHRSS_USER variables #7725
    • Docker: Reduce how much data needs to be chown/chmod’ed on container startup #7793
    • Test for database PDO typing support during install (relevant for MySQL / MariaDB with obsolete driver) #7651
  • Extensions
    • Add API endpoint for extensions #7576
    • Expose the reading modes for extensions #7668, #7688
    • New extension hook before_login_btn #7761
  • UI
    • Improve mark as read request showing popup due to onbeforeunload #7554
    • Fix lazy-loading for <video poster="..."> and <image> #7636
    • Avoid styling <code> inside of <pre> #7797
    • Improve confirmation logic with data-auto-leave-validation #7785
    • Update chart.js to 4.5.0 #7752, #7816
    • Various UI and style improvements: #7616, #7811
  • I18n
  • Misc.
  • 18. August 2025 um 18:03

FreshRSS 1.26.3

Von Alkarex

This is a bug-fix release for FreshRSS 1.26.x

A few highlights ✨:

  • Keep sort and order criteria during navigation
  • Implement loading spinner for marking as favourite/read
  • Many bug fixes

This release has been made by @Alkarex, @Inverle and newcomers @CarelessCaution, @the7thNightmare

Full changelog:

  • Features
    • Keep sort and order criteria during navigation #7585
    • Add info about PDO::ATTR_CLIENT_VERSION (relevant for MySQL / MariaDB with obsolete driver) #7591
  • Bug fixing
    • Fix SQL request for user labels with custom sort (affecting PostgreSQL) #7588
    • Fix regression for favicon in GReader and Fever APIs #7573
    • Fix newest articles (within last second) not shown #7577
    • Fix duplicate HTTP header for POST #7556
    • Fix important articles on reader view #7602
    • Fix remove last share method #7613
    • Fix API handling of default category #7610
    • Fix user self-deletion #7626
    • Move PHP minimum version check #7560
  • Security
    • Fix encoding of themes #7565
    • Fix .htaccess.dist for access to /scripts/vendor/ #7598
  • SimplePie
    • Strip more HTML deprecated styles attributes: bgcolor, text, background, link, alink, vlink #7606
  • UI
    • Implement loading spinner for marking as favourite/read #7564
    • Provide theme class for CSS #7559
  • Deployment
    • Use HTTP Cache-Control: immutable for some files #7552
    • Drop Apache 2.2 (only support Apache 2.4+) #7561
  • I18n
  • Misc.
  • 03. Juni 2025 um 00:10

FreshRSS 1.26.2

Von Alkarex

This is a security-focussed release for FreshRSS 1.26.x, addressing several CVEs (thanks @Inverle) 🛡

A few highlights ✨:

  • Implement JSON string concatenation with & operator
  • Support multiple JSON fragments in HTML+XPath+JSON mode (e.g. JSON-LD)
  • Multiple security fixes with CVEs
  • Bug fixes

Notes ℹ:

  • Favicons will be reconstructed automatically when feeds gets refreshed. After that, you may need to refresh your Web browser as well.

This release has been made by @Alkarex, @Frenzie, @hkcomori, @loviuz, @math-GH
and newcomers @dezponia, @glyn, @Inverle, @Machou, @mikropsoft

Full changelog:

  • 03. Mai 2025 um 22:27

[unable to retrieve full-text content]

  • 03. April 2025 um 23:30

[unable to retrieve full-text content]

  • 03. April 2025 um 16:30

[unable to retrieve full-text content]

  • 03. April 2025 um 16:30

Neu in .NET 9.0 [14]: Multiplikation großer Zahlen mit BigMul()

Von Heise

(Bild: Pincasso/Shutterstock.com)

Eine neue Methode erlaubt die Multiplikation großer Zahlen.

Die Klassen für Ganzzahltypen Int32, UInt32, Int64 und UInt64 bieten jeweils eine neue Methode BigMul() für die Multiplikation, die die Ergebnisse als Int64 und UInt64 bzw. Int128 und UInt128 zurückliefert (ohne Überlauf).

public void BigMul()
 {
  CUI.Demo();
 
  long Value1 = long.MaxValue;
  ulong Value2 = ulong.MaxValue;
 
  Console.WriteLine("Value1: " + Value1.ToString("#,0"));
  Console.WriteLine("Value2: " + Value2.ToString("#,0"));
 
  CUI.H1("Normale Multiplikation");
  Int128 e1 = Value1 * 2; // Überlauf! -2
  UInt128 e2 = Value2 * 2; // Überlauf! 18446744073709551614
 
  Console.WriteLine(e1.ToString("#,0")); // Überlauf! -2
  Console.WriteLine(e2.ToString("#,0")); // Überlauf! 18446744073709551614
 
  CUI.H1("Multiplikation mit BigMul()");
  Int128 e3 = Int64.BigMul(Value1, 2); // 18.446.744.073.709.551.614
  UInt128 e4 = UInt64.BigMul(Value2, 2); // 36.893.488.147.419.103.230
  Console.WriteLine(e3.ToString("#,0")); // 18.446.744.073.709.551.614
  Console.WriteLine(e4.ToString("#,0")); // 36.893.488.147.419.103.230
 }


URL dieses Artikels:
https://www.heise.de/-10331981

Links in diesem Artikel:
[1] mailto:rme@ix.de

Copyright © 2025 Heise Medien

Adblock test (Why?)

  • 28. März 2025 um 10:48

Neu in .NET 9.0 [12]: GUID-Version 7 mit CreateVersion7()

Von Heise

(Bild: Pincasso/Shutterstock.com)

In .NET 9.0 kann man neuerdings einen Globally Unique Identifier in der Version 7 mit Zeitstempel erzeugen.

Die .NET-Klasse System.Guid bietet seit .NET 9.0 neben der statischen Methode NewGuid(), die einen Globally Unique Identifier (GUID), alias UUID (Universally Unique Identifier), gemäß RFC 9562 [1] mit reinen Zufallszahlen (Version 4) erzeugt, nun auch eine weitere statische Methode CreateVersion7() mit einem Timestamp und einer Zufallszahl.

Folgender Code zeigt sowohl den Einsatz von NewGuid() als auch den von CreateVersion7():

public void Run()
{
 CUI.Demo(nameof(FCL9_Guid));
 
 for (int i = 0; i < 10; i++)
 {
  Guid guid = Guid.NewGuid();
  Console.WriteLine($"Guid v4:\t{guid}");
 }
 
 for (int i = 0; i < 10; i++)
 {
  Guid guid7 = Guid.CreateVersion7();
  Console.WriteLine($"Guid v7:\t{guid7}");
 }
 CUI.Yellow("Warte 1 Sekunde...");
 Thread.Sleep(1000);
 for (int i = 0; i < 10; i++)
 {
  Guid guid7 = Guid.CreateVersion7();
  Console.WriteLine($"Guid v7:\t{guid7}");
 }
}

Die Ausgabe zu dem Listing zeigt, dass die GUIDs in Version 7 sich aufgrund des enthaltenen Timestamps ähnlich sind.

(Bild: Screenshot (Holger Schwichtenberg))

Der Timestamp ist in UTC-Zeit in den ersten 64 Bits der GUID enthalten.

Zum Extrahieren des Zeitpunkts gibt es keine eingebaute Methode, man kann ihn aber folgendermaßen extrahieren:

public DateTimeOffset GetDateTimeOffset(Guid guid)
{
 byte[] bytes = new byte[8];
 guid.ToByteArray(true)[0..6].CopyTo(bytes, 2);
 if (BitConverter.IsLittleEndian)
 {
  Array.Reverse(bytes);
 }
 long ms = BitConverter.ToInt64(bytes);
 return DateTimeOffset.FromUnixTimeMilliseconds(ms);
}


URL dieses Artikels:
https://www.heise.de/-10316051

Links in diesem Artikel:
[1] https://www.rfc-editor.org/rfc/rfc9562.html
[2] mailto:rme@ix.de

Copyright © 2025 Heise Medien

Adblock test (Why?)

  • 14. März 2025 um 17:03

Neu in .NET 9.0 [11]: Neue Möglichkeiten für ref struct in C# 13.0

Von Heise

(Bild: Pincasso/Shutterstock)

In C# 13.0 hat Microsoft den Einsatzbereich von ref struct unter anderem zum Implementieren von Schnittstellen erweitert.

Seit C# 7.2 gibt es Strukturen, die immer auf dem Stack leben und niemals auf den Heap wandern können: ref struct. In C# 13.0 hat Microsoft den Einsatz von ref struct erweitert.

Solche Typen können nun:

  • Schnittstellen implementieren. Allerdings gilt die Einschränkung, dass die Struktur nicht in den Schnittstellentyp konvertiert werden kann, da der Compiler intern dafür ein Boxing machen müsste.
  • als Typargument genutzt werden. Allerdings muss man dazu den generischen Typ beziehungsweise die generische Methode where T : allows ref struct verwenden.
  • in Iteratoren mit yield verwendet werden. Allerdings darf die Struktur nicht länger leben als der aktuelle Durchlauf des Iterator.
  • in asynchronen Methoden, die Task oder Task<T> liefern, genutzt werden.

Weiterhin gilt aber: Wenn man einen Typ als ref struct deklariert, ist ein Boxing nicht mehr möglich. Der Einsatz von ref struct ist daher begrenzt. So kann man beispielsweise kein Array und keine List<T> daraus erzeugen.

Folgender Code zeigt einen eigenen Typ mit ref struct, der eine Schnittstelle implementiert:

internal interface IPerson
{
  int ID { get; set; }
  int Name { get; set; }
}

// NEU seit C# 13.0: ref struct kann Schnittstelle implementieren
ref struct Person : IPerson 
 {
  public int ID { get; set; }
  public int Name { get; set; }
  // ToString()
  public override string ToString()
  {
   return "Person #" + ID + " " + Name;
  }
 }
}
 
class Client
{
 public void Run()
 {
  Person p = new Person();
  p.ID = 1;
  p.Name = 2;
  Console.WriteLine(p.ID);
  Console.WriteLine(p.Name);
 
  // Das ist alles nicht erlaubt!
  // IPerson i = p; // Casting auf Schnittstelle
  // List<Person> PersonList = new(); // List<T>
  // PersonList[] PersonArray = new Person[10]; // Array
 }
}


URL dieses Artikels:
https://www.heise.de/-10307583

Links in diesem Artikel:
[1] mailto:rme@ix.de

Copyright © 2025 Heise Medien

Adblock test (Why?)

  • 07. März 2025 um 11:44
❌