(Bild: Andrey Suslov/Shutterstock.com)
Das Web ist zur Heimat vieler Anwendungen geworden, doch es bleibt eine Lücke zwischen Web-Apps und nativen Anwendungen. Können IWAs diese Lücke schließen?
Das Web ist in den vergangenen Jahren deutlich leistungsfähiger geworden: Nicht zuletzt hat das Anwendungsmodell der Progressive Web Apps [1] (PWA) sowie die Chromium-Initiative Project Fugu [2] dazu beigetragen, dass zunehmend viele Anwendungen direkt für das Web verfasst und im Browser lauffähig gemacht werden können, wie etwa Photoshop oder Visual Studio Code.
Aufgrund der Sicherheitsarchitektur des Web wird die Web-App-Gap, also die Lücke zwischen den Möglichkeiten plattformspezifischer Anwendungen und Web-Apps aber nie ganz geschlossen werden können.
Eine Schnittstelle, die direkt im Web nicht verfügbar gemacht werden kann, ist die Direct Sockets API [3], die Entwicklern die Möglichkeit eröffnen sollte, beliebige Server-Ports anzusprechen – über HTTPS, WebSockets und WebRTC hinaus.
Da diese die Same-Origin-Policy (SOP) des Web umgehen würde, und damit eine zentrale Sicherheitsbarriere im Web, meldete die Technical Architecture Group (TAG) des W3C deutliche Bedenken [4] an. Dieses gewählte Gremium innerhalb des W3C soll sicherstellen, dass sich neue Schnittstellen sinnvoll in das World Wide Web einfügen.
Gleichzeitig wünschen sich Softwareentwickler jedoch, diese Fähigkeiten nutzen zu können. Manche komplett grundlegenden Schnittstellen sind im Web oder zumindest nicht in allen Browsern verfügbar.
Die TAG kündigte im September 2023 auf der diesjährigen W3C-Jahreskonferenz TPAC in Sevilla daher die Gründung einer Taskforce an [5], um auch solche Schnittstellen ins Web bringen zu können.
Untersucht werden soll dabei ein möglicher "powerful context", bei dem der Anwender in die Installation einer Anwendung etwa explizit einwilligen könnte, um weitere Fähigkeiten wie den Zugriff auf Sockets freizuschalten.
Einen möglichen Vorschlag für einen solchen leistungsfähigen Kontext lieferte Google in der Vergangenheit bereits: die sogenannten Isolated Web Apps [6] (IWA). Auch bei diesem Anwendungsmodell handelt es sich um Webanwendungen, die dieses Mal aber in Form eines signierten Bündels vertrieben werden, über die klassischen Vertriebswege wie App-Stores, Installationspakete oder Enterprise-Deployments. Auch ein Sideloading durch die direkte Installation des Bundles wäre möglich.
Durch diesen zusätzlichen Vertrauensanker erhalten die Webanwendungen im Gegenzug dann Zugriff auf einen größeren Umfang von Schnittstellen. Ausgeführt würden diese trotzdem durch einen Browser.
Durch die Signatur werden Man-in-the-Middle-Angriffe oder die Manipulation des Quellcodes auf dem Anwendungsserver deutlich erschwert. Aufgrund solcher Bedenken [7] wird etwa der Messenger Signal nur als Electron-App, nicht aber als Progressive Web App herausgegeben.
Alle Folgeversionen müssen mit demselben Schlüssel signiert werden. Um Downgrading-Angriffe zu vermeiden, dürfen Updates ausschließlich auf eine höhere Versionsnummer vorgenommen werden. Das Laden von Quellcode außerhalb des Anwendungskontextes wird unterbunden, daher rührt auch der Name Isolated Web App. Hierfür würde ein eigenes URI-Schema [8] eingeführt: isolated-app://signed-web-bundle-id/path/foo.js?query#fragment
Die signed-web-bundle-id entspricht dabei dem Base32-kodierten öffentlichen Schlüssel.
Im Falle der IWAs werden Anwendungen über die klassischen, dem Anwender vertrauten Vertriebswege ausgeliefert. Anwendungsentwickler können ihr bestehendes Webwissen mitnehmen, aber dank des zusätzlichen Vertrauensankers auf noch leistungsfähigere Schnittstellen zugreifen. Diese würden auch weiterhin durch das W3C offen standardisiert.
Die Anwendungen basieren weiterhin auf Webtechnologien und könnten auch Code etwa mit einer PWA teilen. Und das alles ohne die Zusatzlast klassischer Wrapper-Ansätze wie Electron, Tauri, Cordova oder Capacitor.
Die Web Smart Card API Demo [9] des Chrome-Teams soll das IWA-Anwendungsmodell demonstrieren, indem die verpackte Webanwendung Zugriff auf Smartcards bekommt, um Personen zu identifizieren. Allerdings setzt dies ein ChromeOS-Gerät und die Aktivierung mehrerer Feature-Flags voraus. Unterstützung für die Web Smart Card API soll im Laufe des Jahres 2024 in Chromium für Windows, macOS und Linux hinzugefügt werden.
Zusammengefasst könnten Isolated Web Apps die Web-App-Gap tatsächlich erneut deutlich reduzieren und das Cross-Plattform-Feld aufmischen. Allerdings steht die gesamte Anstrengung noch komplett am Anfang. Die im September ausgerufene Taskforce wurde bislang noch nicht eingerichtet. Und auch ein Commitment von Mozilla oder Apple gibt es derzeit noch nicht.
URL dieses Artikels:
https://www.heise.de/-9540145
Links in diesem Artikel:
[1] https://www.heise.de/ratgeber/Progressive-Web-Apps-Write-once-run-anywhere-4839505.html
[2] https://www.heise.de/blog/Fugu-Die-Macht-des-Kugelfisches-4255636.html
[3] https://www.heise.de/blog/Direct-Sockets-API-Laufen-FTP-und-SSH-Clients-bald-direkt-im-Browser-7156224.html
[4] https://github.com/w3ctag/design-reviews/issues/548
[5] https://www.w3.org/events/meetings/6d209c82-549d-4506-bc36-764ac4326b14/
[6] https://chromestatus.com/feature/5146307550248960
[7] https://community.signalusers.org/t/google-to-retire-chrome-apps-what-will-be-with-signal-desktop/469/6
[8] https://github.com/WICG/isolated-web-apps/blob/main/Scheme.md
[9] https://github.com/GoogleChromeLabs/web-smartcard-demo
[10] mailto:rme@ix.de
Copyright © 2024 Heise Medien
Frühe Illustration eines SCoPEx-Ballons.
(Bild: Renderung bearbeitet von MIT Technology Review)
Die SCoPEx-Ballons sollten in der Stratosphäre Erdabkühlungsstrategien erproben. Doch der Chefforscher will nicht mehr.
Nach mehrfachen Verzögerungen und öffentlicher Kritik haben Harvard-Forscher ihre langjährigen Bemühungen um ein Geoengineering-Experiment in der Stratosphäre eingestellt. In einer am 18. März veröffentlichten Erklärung der Universität heißt es, der Forschungsleiter Frank Keutsch verfolge das Vorhaben nicht länger. Das Grundkonzept hinter dem Vorhaben war das sogenannte Solar Geoengineering: Dabei sollen winzige Partikel in die Atmosphäre gesprüht werden, die das Sonnenlicht streuen könnten.
Der Plan von Keutsch und seinem Team sah zunächst vor, einen mit Propellern und Sensoren ausgestatteten Höhenballon zu starten, der einige Kilogramm Kalziumkarbonat, Schwefelsäure oder andere Materialien [1] hoch über der Erde freisetzen sollte. Der Ballon würde dann beidrehen und durch die selbst generierte Wolke fliegen, um zu messen, wie weit sich die Partikel ausbreiten, wie viel Sonnenlicht sie wirklich reflektieren und andere Variablen erfassen. Das Ballonkonzept ist aber nicht tot, nur soll das Flugobjekt nun für stratosphärische Forschungsarbeiten eingesetzt werden, die nichts mit solarem Geoengineering zu tun haben, so heißt es aus Harvard.
Ein überwiegender Teil der bisherigen Forschung in dem Bereich wurde bislang in Labors oder mittels Computermodellen durchgeführt. Das Harvard-Projekt wäre deutlich weitergegangen. Im Rahmen des "Stratospheric Controlled Perturbation Experiment", kurz SCoPEx, sollte erstmals direkt in der Stratosphäre experimentiert werden. Das Projekt war aber von Anfang an umstritten [2]. Möglicherweise waren zudem mittlerweile andere Forscher schneller bei der absichtlichen Freisetzung reflektierenden Materials in dieser Atmosphärenschicht [3]. (Die Stratosphäre erstreckt sich von etwa 10 bis 50 Kilometern über dem Erdboden.)
Im vergangenen Frühjahr wechselte einer der wichtigsten Wissenschaftler des Projekts, David Keith, dann an die Universität von Chicago, wo er die Initiative "Climate Systems Engineering" [4] leitet. Die Forschungsgruppe will verschiedene Ansätze des solaren Geoengineerings sowie die Entfernung von Kohlendioxid aus der Luft [5] erproben. Hinzu kommen Ideen für lokale Eingriffe ins Klima, etwa das Abstützen von Gletschern. Im Sommer darauf informierte dann das Harvard-Team den zuständigen beratenden Ausschuss, dass es die Arbeit an seinem Experiment "ausgesetzt" habe. Dann blieb es monatelang in der Schwebe: Bis Anfang Oktober war noch keine endgültige Entscheidung über das Schicksal des Projekts getroffen worden, so Harvard-Professor Daniel Schrag, der im Beratungsausschuss saß, damals gegenüber MIT Technology Review.
Befürworter der Solar-Geoengineering-Experimente [6] argumentieren, dass die Menschheit die Konzepte erforschen sollte, weil sie die Gefahren des Klimawandels womöglich erheblich reduzieren könnten. Weitere Studien könnten den Wissenschaftlern helfen, die potenziellen Vorteile, Risiken und Kompromisse zwischen verschiedenen Ansätzen besser zu verstehen. Kritiker argumentieren hingegen, dass selbst reine Experimente im Bereich des solaren Geoengineerings den gesellschaftlichen Druck zur Senkung von Treibhausgasemissionen mindern könnte. Sie befürchten auch, dass solche Forschungen dazu führen könnten, dass böswillige Akteure eines Tages solche Methoden zum Nachteil anderer einsetzen könnten. Sie hätten potenziell gefährliche Nebenwirkungen, wie etwa der Rückgang von Niederschlägen, was die landwirtschaftliche Produktion in Teilen der Welt stören könnte.
Keith, der jetzt nach Chicago gegangen ist, und seine Kollegen haben den Plan für ihr Experiment bereits vor einem Jahrzehnt in einem Paper [7] dargelegt. Im Jahr 2017 gaben er und Keutsch dann bekannt, dass sie hofften, es praktisch durchführen zu können, indem sie bereits im folgenden Jahr Ballons von einem Standort in Tucson, Arizona, starten. Doch das Projekt wechselte mehrmals den Standort. Zuletzt hoffte das Team, im Sommer 2021 vom Esrange Space Center in Kiruna, Schweden, einen Ballon zu starten, um die Hardware des Flugzeugs zu testen. Diese Pläne wurden jedoch auf Empfehlung des beratenden Ausschusses des Projekts gestoppt, der entschied, dass die Forscher vor jedem Flug Gespräche mit der Öffentlichkeit führen müssen. Das Vorhaben wurde auch vom Saami-Rat, der die indigenen Saami-Völker in Schweden und den angrenzenden Regionen vertritt, sowie von Umweltgruppen und anderen Organisationen teils heftig kritisiert, da der Einsatz solcher Instrumente "zu gefährlich" sei.
Solares Geoengineering sei eine Technologie, die "das Risiko katastrophaler Folgen birgt, einschließlich der Auswirkungen einer unkontrollierten Beendigung und irreversibler soziopolitischer Effekte, die die notwendigen Anstrengungen der Welt zur Erreichung einer CO₂-freien Gesellschaft gefährden könnten", schrieb die Gruppe in einem Brief an den beratenden Harvard-Ausschuss. "Es gibt daher keine akzeptablen Gründe, die Durchführung des SCoPEx-Projekts in Schweden oder anderswo zuzulassen." Auf die Frage, warum er sich entschlossen habe, die Arbeit an dem Experiment einzustellen – und ob dies etwas mit dem öffentlichen Druck oder den Verzögerungen zu tun habe –, antwortete Keutsch per E-Mail, dass er "im Laufe dieses Projekts wichtige Lektionen über Governance und Engagement gelernt" habe.
Der Forschungsbereich habe in den vergangenen Jahren einen bedeutenden Wandel erfahren, der die Gemeinschaft vergrößert und neue Türen für Forschung und Zusammenarbeit geöffnet hatbe, fügte er hinzu. "Ich hatte das Gefühl, dass es an der Zeit war, sich auf andere innovative Forschungswege in diesem unglaublich wichtigen Bereich zu konzentrieren, die wirkungsvolle Ergebnisse versprechen." Während sich das Harvard-Projekt verzögert, haben andere Gruppen ihre eigenen Bemühungen im Bereich des Geoengineering vorangetrieben. Das umstrittene, von Risikokapitalgebern finanzierte Unternehmen Make Sunsets hat wiederholt Wetterballons gestartet, die mit einigen Gramm Schwefeldioxid gefüllt sind und nach eigenen Angaben wahrscheinlich in der Stratosphäre zerplatzen würden. In der Zwischenzeit hat ein unabhängiger Forscher im Vereinigten Königreich, Andrew Lockley, nach eigenen Angaben mehrere Ballonstarts durchgeführt, darunter einen Flug im September 2022, der etwa 15 Meilen über der Erde platzte und rund 400 Gramm Schwefeldioxid freigesetzt haben könnte.
Trotz der öffentlichen Kontroverse erhielten die SCoPEx-Forscher von einigen Fachleuten jedoch gute Noten dafür, dass sie sich bemühten, den Feldversuch in kleinem Maßstab, kontrolliert und transparent durchzuführen, klare Forschungsziele festzulegen und einen unabhängigen Beratungsausschuss zur Überprüfung der Vorschläge einzusetzen. Gernot Wagner, Klimaökonom an der Columbia Business School und ehemaliger Direktor des Harvard Solar Geoengineering Research Program [8], kommentierte in einer E-Mail, dass die Absage des Projekts "unglücklich" sei, da es in diesem Sektor bereits eine größere Bedeutung erlangt habe.
Er betonte, dass das Projekt "den Aktionsradius für andere, jüngere Forscher erweitert hat, die sich mit diesem wichtigen Thema befassen". Außerdem habe die Gruppe durch die Veröffentlichung der Pläne in einer von Peer-Review-Fachzeitschrift und durch ihre transparente Arbeitsweise "eine Art Standard für verantwortungsvolle Forschung in diesem Bereich gesetzt". Das Problem: "Selbst verantwortungsbewusste Forscher, die sich entscheiden, diese Art von Forschung nicht zu betreiben, geben indes auch unverantwortlichen Akteuren mit allen möglichen verrückten Ideen reichlich Raum", so Wagner.
Harvard wird Geoengineering weiterhin im Rahmen des Solar Geoengineering Research Program erforschen, einem multidisziplinären Forschungsprojekt, das 2017 mit finanzieller Unterstützung von Microsoft-Mitbegründer Bill Gates, der Hewlett Foundation, der Alfred P. Sloan Foundation und anderen Organisationen und Einzelpersonen eingerichtet wurde. Andere aktuelle oder frühere Projekte umfassen eine Laborstudie über neue Materialien, die möglicherweise für solares Geoengineering verwendet werden könnten – sowie Bemühungen, einige der größeren Herausforderungen bei der Steuerung solcher Instrumente zu identifizieren und zu bewältigen.
Ebenfalls am Montag veröffentlichte der beratende Harvard-Ausschuss des Projekts einen finalen Bericht [9], in dem der von ihm entwickelte Ansatz für die Überwachung des Projekts und die wichtigsten Erkenntnisse dargelegt werden – in der Hoffnung, dass sie in künftige Forschungsexperimente zum Geoengineering einfließen. Das Schriftstück betonte die Notwendigkeit, die Öffentlichkeit frühzeitig einzubeziehen, ihre Bedenken anzuhören und Pläne zu entwickeln, um auf diese zu reagieren.
URL dieses Artikels:
https://www.heise.de/-9659135
Links in diesem Artikel:
[1] https://www.heise.de/hintergrund/Geoengineering-Ballontraum-in-Schweden-zunaechst-geplatzt-6007321.html
[2] https://www.etcgroup.org/content/us-attempting-move-forward-geoengineering
[3] https://www.heise.de/news/Geoengineering-Start-up-hat-angeblich-mit-Freisetzung-von-Partikeln-begonnen-7443692.html
[4] https://news.uchicago.edu/story/david-keith-joins-university-chicago-lead-climate-systems-engineering-initiative
[5] https://www.heise.de/news/MIT-Technology-Review-8-23-Kann-uns-das-Abscheiden-von-CO2-helfen-9348567.html
[6] https://www.heise.de/meinung/Kommentar-Forschung-zum-Solar-Geoengineering-muss-weitergehen-6343174.html
[7] https://royalsocietypublishing.org/doi/10.1098/rsta.2014.0059
[8] https://www.heise.de/hintergrund/Deep-Dive-Was-hinter-solarem-Geoengineering-steckt-7700392.html
[9] https://scopexac.com/finalreport/
[10] https://www.instagram.com/technologyreview_de/
[11] mailto:jle@heise.de
Copyright © 2024 Heise Medien
(Bild: mooremedia/shutterstock.com)
US-Forscher haben erstmals knapp 100.000 UFO-Sichtungen geprüft und lokale Faktoren berücksichtigt. So ließen sich gute Beobachtungsbedingungen aufzeigen.
Forscher der University of Utah und des US-Verteidigungsministeriums haben rund 98.000 UFO-Sichtungsberichte des National UFO Reporting Center von 2001 bis 2020 untersucht, um herauszufinden, ob lokale Einflussfaktoren die Zahl der Sichtungsmeldungen erhöhen oder verringern. Mit Hilfe statistischer Methoden berechneten sie dabei, ob es einen Zusammenhang zwischen gemeldeten Sichtungen, Baumbestand, Lichtverschmutzung, häufiger Bewölkung und der geografischen Nähe zu Flughäfen und militärischen Einrichtungen gibt. Ihre Ergebnisse [1]veröffentlichten die Forschenden in der Zeitschrift "Scientific Reports".
In ihrer Untersuchung gehen Richard Medina und seine Kollegen davon aus, dass es natürliche Erklärungen für die Beobachtung merkwürdiger Himmelsphänomene gibt, und "dass es mehr Sichtungen gibt, wenn es mehr Gelegenheiten dafür gibt". Sie berechneten daher, ob es positive Korrelationen zwischen Faktoren wie der Nähe zu Flughäfen oder besonders guten Beobachtungsbedingungen (viel offenes Gelände) gibt.
"Die Idee ist, dass es wahrscheinlicher ist, dass man unerklärliche Phänomene am Himmel sieht, wenn man die Chance hat, etwas zu sehen‟, schreiben die Autoren. "Es gibt mehr Technologie am Himmel als je zuvor, also stellt sich die Frage: Was sehen die Menschen tatsächlich?"
Tatsächlich zeigte sich, dass Umweltfaktoren und die Nähe zu Flugverkehr und Militäreinrichtungen die Sichtungsberichte erheblich beeinflussen. Dass die meisten Beobachtungen von unidentifizierten anomalen Phänomenen im amerikanischen Westen stattfindet, hat laut den Autoren also nichts mit erhöhten geheimnisvollen Aktivitäten zu tun, sondern mit offenem Land, dunklem Himmel und Militärstützpunkten. Der einzige Einflussfaktor, der sich nicht eindeutig zuordnen ließ, war häufige Bewölkung: Die These der Forschenden war zunächst, dass das damit einhergehende vermehrte Streulicht auch zu mehr leuchtenden Himmelsphänomenen führen könnte. Nach der statistischen Auswertungen scheint dieser Faktor die Häufigkeit der Sichtungen aber nicht zu beeinflussen.
Die Autoren weisen darauf hin, dass es sich bei den gemeldeten Sichtungen des National UFO Research Centers [2] um Selbstauskünfte handelt. Es gäbe also keine wirkliche Möglichkeit diese Meldungen tatsächlich zu prüfen. Allerdings lasse die Tatsache, dass die Meldungen ein räumliches Muster zeigen, darauf schließen, dass sie wirklich auf irgendeiner Art von Beobachtungen beruhen. In weiteren Untersuchungen wollen die Forschenden nun klären, ob sie auch zeitliche Verläufe – mehr Beobachtungen nach großen Medienberichten über UFOs – oder den Einfluss soziokultureller Faktoren wie Religionen oder der Popularität von Fernsehserien wie "Akte X" [3] in den Daten erkennen können.
Berichte über UFO-Sichtungen sorgen besonders in den USA immer wieder für Aufregung. Zuletzt hatte das All-Domain Anomaly Resolution Office [4] (AARO) des US-Verteidigungsministeriums im Februar einen Bericht über die mittlerweile als Unidentified Aerial Phenomena (UAP) bezeichneten Sichtungen vorgelegt [5]. Demnach habe man "keine verifizierbaren Beweise für die Behauptung gefunden, dass die US-Regierung und private Firmen Zugang zu außerirdischer Technologie haben oder solche nachbauen".
Allerdings hinterlässt die US-Regierung bei solchen Veröffentlichungen regelmäßig mehr offene Fragen, als sie – zunächst – beantwortet. Die jahrzehntelangen Spekulationen über ein abgestürztes UFO in Roswell beispielsweise räumte die US-Luftwaffe erst 1994 aus, als sie in einem Bericht zugab [6], dass in der Basis in den 1940er-Jahren ein streng geheimes Programm mit Höhenballons zur Überwachung russischer Atomwaffentests stattgefunden hatte. Auch in dem jetzt vorgelegten Bericht, vermerken Beobachter [7], verweist das Militär auf geheime Forschungsprojekte, ohne zu benennen, was genau erforscht wird.
Die Journalistin Sarah Scoles brachte dieses Vorgehen und seine Konsequenzen in ihrem Buch "They are already here" [8] auf den Punkt: "Die Regierung hat Untersuchungen gestartet, deren Ergebnis vorher feststand, sie hat Schlüsse gezogen, die nicht alle Beweise berücksichtigt. Sie hat interessierte Parteien ausspioniert und sie hat ihre Arbeit geheim gehalten und ihre eigenen Interessen heruntergespielt", schrieb sie. "Damit hat sie eine Kultur der Verschwörungstheorie in der Ufologie herangezüchtet. Ein Bewusstsein dafür, dass die Regierung nicht will, dass bestimmte Fakten bekannt werden".
URL dieses Artikels:
https://www.heise.de/-9659540
Links in diesem Artikel:
[1] https://www.nature.com/articles/s41598-023-49527-x.pdf
[2] https://nuforc.org/
[3] https://www.heise.de/news/Neue-Folgen-von-Akte-X-Ich-will-es-immer-noch-glauben-3084426.html
[4] https://www.aaro.mil/
[5] https://www.heise.de/news/UFO-Abteilung-des-Pentagon-Keine-Beweise-fuer-UFO-Sichtungen-in-US-Dokumenten-9651178.html
[6] https://www.nsa.gov/portals/75/documents/news-features/declassified-documents/ufo/report_af_roswell.pdf
[7] https://www.wired.com/story/questions-pentagon-ufo-report/
[8] https://www.heise.de/hintergrund/Weekly-KI-mal-wieder-ausgetrickst-klimaneutraler-Zement-Aliens-9231839.html
[9] https://www.instagram.com/technologyreview_de/
[10] mailto:wst@technology-review.de
Copyright © 2024 Heise Medien
Ob eine Hinterradlenkung gut für ein dreirädriges Tret-Fahrzeug ist und wo es Hotspots für UFO-Sichtungen gibt, besprechen wir in der neuen Podcast-Folge.
Der Begriff UFO ist ganz schön vorbelastet und weckt sofort gewisse Vorstellungen und Theorien über die Unidentified Flying Objects. Daher setzt die US-Regierung eher auf die Bezeichnung UAP, nämlich Unidentified Aerial Phenomena. Forschende der University of Utah sind das Thema statistisch angegangen und haben untersucht, wo UFO-Sichtungen begünstigt sind und wo die Sichtung erschwert wird [1]. TR-Redakteur Wolfgang Stieler erläutert die Studie und warum, veröffentlichte Untersuchungen den Glauben der "UFO-Community" nur noch mehr befeuern.
Außerdem im Weekly:
Wenn auch ihr, liebe Zuhörerinnen und Zuhörer, mal Empfehlungen habt für Serien, Bücher, Games, Podcasts oder sonstige Medien, die neu oder irgendwie noch nicht zu dem Ruhm gekommen sind, den sie Eurer Meinung nach verdienen, dann schreibt uns doch eine Mail an info@technology-review.de [3] oder lasst Euren Tipp da auf unseren Social-Media-Konten von MIT Technology Review: Wir sind auf Facebook, Instagram, X, LinkedIn, TikTok und ganz neu: auf Mastodon [4] und Bluesky [5]. Oder kontaktiert uns auf Mastodon persönlich: Wolfgang Stieler [6], Gregor Honsel [7], Jenny Lepies [8].
Mehr dazu in der ganzen Folge – als Audio-Stream (RSS-Feed [9]):
URL dieses Artikels:
https://www.heise.de/-9659409
Links in diesem Artikel:
[1] https://www.heise.de/news/Wo-man-in-den-USA-die-meisten-UFOs-sieht-9659540.html
[2] https://www.heise.de/tests/Tret-Fahrzeug-Hopper-Wie-sich-das-e-Bike-mit-Dach-faehrt-9648865.html
[3] mailto:info@technology-review.de
[4] https://social.heise.de/@techreview_de
[5] https://bsky.app/profile/technologyreview.de
[6] https://social.tchncs.de/@wstieler
[7] https://social.heise.de/@ghonsel
[8] https://mstdn.social/@Kultanaamio
[9] https://tech2go.podigee.io/feed/mp3
[10] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[11] https://podcasts.apple.com/de/podcast/tech2go-der-technology-review-podcast/id1511589900
[12] https://www.heise.de/tr/rss/tech2go.rss
[13] https://open.spotify.com/show/5sQ717mamQbJVvvOZT6p2y
[14] https://www.heise.de/thema/mit-technology-review-podcast
[15] https://www.instagram.com/technologyreview_de/
[16] mailto:jle@heise.de
Copyright © 2024 Heise Medien
(Bild: James Gathany / CDC)
Brasilien steckt aktuell in einer akuten Dengue-Fieber-Krise. Aber das Bakterium Wolbachia sorgt bei übertragenden Mücken für einen praktischen Effekt.
In Brasilien steigt die Zahl der Dengue-Fälle und das Land steht vor einer massiven Krise der öffentlichen Gesundheit. Die von Mücken übertragene Viruserkrankung hat allein dieses Jahr mehr als eine Million Brasilianerinnen und Brasilianer krank gemacht und die Krankenhäuser überlastet.
Die aktuelle Dengue-Krise ist das Ergebnis des Zusammentreffens von zwei Schlüsselfaktoren. Zum einen begünstigt das in diesem Jahr oft feuchte und warme Wetter die Vermehrung der übertragenden Mückenspezies Aedes aegypti. Zum anderen sind in diesem Jahr alle vier Typen des Dengue-Virus im Umlauf, aber nur wenige Menschen haben eine Immunität gegen alle Typen aufgebaut.
Doch Brasilien ist dabei, sich zu wehren. Eine der Anti-Dengue-Strategien des Landes zielt darauf ab, die Verbreitung der krankheitsübertragenden Moskitos zu behindern, indem sie mit einem bei Insekten weit verbreiteten Bakterium der Gattung Wolbachia infiziert werden. Das Bakterium scheint die Immunreaktion der Mücken zu verstärken und es Dengue- und anderen Viren zu erschweren, in den Insekten zu wachsen. Das Bakterium konkurriert auch direkt mit den Viren um wichtige Moleküle, die diese zur Replikation benötigen. Menschen befällt Wolbachia nicht.
Das "World Mosquito Program" [1] züchtet mit Wolbachia infizierte Stechmücken in Insektarien und setzt sie in Gemeinden aus. Dort paaren sie sich mit wilden Mücken. Wilde Weibchen, die sich mit Wolbachia-infizierten Männchen paaren, produzieren zwar Eier, diese schlüpfen allerdings nicht. Wolbachia-infizierte Weibchen wiederum bringen Nachkommen hervor, die ebenfalls infiziert sind.
Mit der Zeit verbreiten sich die Bakterien in der gesamten Population. Das größte Insektarium des Programms befindet sich im kolumbianischen Medellín, in dem Tausende von Moskitos in Netzkäfigen herumschwirren. "Wir impfen die Moskitos im Grunde gegen die Übertragung von Krankheiten auf den Menschen", sagt Bryan Callahan, der Direktor für Öffentlichkeitsarbeit.
Das "World Mosquito Program" begann 2014 mit der Freisetzung von Wolbachia-Moskitos in Brasilien. Inzwischen decken die Insekten ein Gebiet mit mehr als drei Millionen Einwohnern in fünf Gemeinden ab: Rio de Janeiro, Niterói, Belo Horizonte, Campo Grande und Petrolina.
In Niterói, einer Gemeinde mit rund 500.000 Einwohnern, die an der Küste direkt gegenüber einer großen Bucht von Rio de Janeiro liegt, wurden 2015 die ersten kleinen Pilotversuche gestartet, und 2017 begann das "World Mosquito Program" mit größeren Einsätzen. 2020 hatte Wolbachia einen Großteil der Mückenpopulation von Niterói infiltriert: Die Prävalenz des Bakteriums reichte von 40 Prozent in einigen Teilen der Stadt bis zu 80 Prozent in anderen.
Als die Forscher das Vorkommen von Viruserkrankungen in den Gebieten, in denen Moskitos freigesetzt worden waren, mit der in einer kleinen Kontrollzone verglichen, die keine Moskitos erhalten hatte, stellten sie einen Rückgang der Dengue-Fälle um 69 Prozent fest. In Gebieten mit Wolbachia-Mücken ging auch die Zahl anderer von Mücken übertragenen Infektionen zurück: Chikungunya-Fälle nahmen um 56 Prozent und Zika-Fälle um 37 Prozent ab.
Wie ergeht es Niterói während der aktuellen Welle? Für ein abschließendes Urteil ist es noch zu früh. Erste Daten sind allerdings ermutigend. Die Zahl der Dengue-Neuerkrankungen (Inzidenz) ist mit 69 bestätigten Fällen pro 100.000 Einwohner eine der niedrigsten im ganzen Bundesstaat. In Rio de Janeiro, einer Stadt mit fast sieben Millionen Einwohnern, gab es mehr als 42.000 Fälle, was einer Inzidenz von 700 pro 100.000 entspricht.
"Niterói ist die erste brasilianische Stadt, die wir vollständig mit unserer Wolbachia-Methode geschützt haben", sagt Alex Jackson, Global Editorial and Media Relations Manager für das "World Mosquito Program". "Die gesamte Stadt ist von Wolbachia-Mücken abgedeckt, weshalb die Dengue-Fälle deutlich zurückgehen."
Das Programm hofft, in diesem Sommer in sechs weiteren Städten Wolbachia-Mücken freisetzen zu können. Allerdings hat Brasilien mehr als 5.000 Gemeinden. Um die Gesamtzahl der Dengue-Fälle in ganz Brasilien zu senken, müsste das Programm Millionen weiterer Moskitos freisetzen. Genau das ist der Plan.
Das "World Mosquito Program" steht kurz vor dem Baubeginn der größten Massenaufzuchtanlage der Welt in Curitiba. "Wir glauben, dass wir damit innerhalb der nächsten zehn Jahre den größten Teil des städtischen Brasiliens abdecken können", sagt Callahan.
Neben dem "World Mosquito Program" sind noch eine ganze Reihe weiterer Ansätze auf Moskitobasis in Arbeit. Das britische Unternehmen Oxitec liefert seit 2018 gentechnisch veränderte "freundliche" Moskitoeier nach Indaiatuba in Brasilien. [2] Die Insekten, die daraus schlüpfen – allesamt Männchen –, stechen selbst keine Menschen. Sobald sie sich paaren, überleben ihre weiblichen Nachkommen nicht, was die Populationen reduziert.
Ein weiteres Unternehmen namens Forrest Brasil Tecnologia hat in Teilen von Ortigueira sterile männliche Moskitos [3] ausgesetzt. Wenn sich diese Männchen mit wilden Weibchen paaren, produzieren sie Eier, die nicht schlüpfen. Von November 2020 bis Juli 2022 verzeichnete das Unternehmen in Ortigueira einen Rückgang [4] der Aedes aegypti-Population um 98,7 Prozent.
Darüber hinaus arbeitet Brasilien auch daran, seine Bürger mit einer besseren Immunität [5] auszustatten, indem es den am stärksten gefährdeten Personen einen neuen Impfstoff aus Japan [6] anbietet und gleichzeitig an einem eigenen Dengue-Impfstoff [7] arbeitet.
Keine dieser Lösungen ist eine schnelle Lösung. Aber sie alle geben Anlass zur Hoffnung, dass die Welt Wege finden kann, sich zu wehren, selbst wenn der Klimawandel Dengue-Fieber und andere Infektionen auf neue Höchststände und in neue Gebiete treibt. "Die Fälle von Dengue-Fieber nehmen in alarmierendem Maße zu", sagte Gabriela Paz-Bailey, Spezialistin für Dengue-Fieber bei der US-Seuchenschutzbehörde CDC (US Centers for Disease Control and Prevention) gegenüber der Washington Post. "Es entwickelt sich zu einer öffentlichen Gesundheitskrise und kommt an Orte, an denen es noch nie aufgetreten ist."
URL dieses Artikels:
https://www.heise.de/-9658047
Links in diesem Artikel:
[1] https://www.worldmosquitoprogram.org/en/work/wolbachia-method?gad_source=1&gclid=Cj0KCQjwwMqvBhCtARIsAIXsZpYl6XkczAZdIpynQFzo7D6bFCw2JyI7n9XeYMUerBju4Z6aayArdekaAuulEALw_wcB
[2] https://www.heise.de/hintergrund/Mueckeneier-gegen-Denguefieber-4797143.html
[3] https://pubmed.ncbi.nlm.nih.gov/37187486/
[4] https://pubmed.ncbi.nlm.nih.gov/37187486/
[5] https://www.npr.org/sections/goatsandsoda/2024/03/04/1235795657/dengue-brazil-state-of-emergency-vaccine
[6] https://www.ema.europa.eu/en/medicines/human/EPAR/qdenga
[7] https://www.nejm.org/doi/full/10.1056/NEJMoa2301790
[8] https://www.instagram.com/technologyreview_de/
[9] mailto:office@technology-review.de
Copyright © 2024 Heise Medien
Ein Vodafone-Verteiler an der Binnenalster in Hamburg.
(Bild: Daniel AJ Sokolov)
Das Verwaltungsgericht hat einem Eilantrag von Vodafone gegen einen Bescheid der Bundesnetzagentur stattgegeben, mit dem diese Open-Access-Gebühren festlegte.
Bereits die erste Entscheidung der Bundesnetzagentur über Entgelte, die ein Unternehmen von einem Mitbewerber für den Zugang zu seinem öffentlich geförderten Glasfasernetz erheben darf, ist rechtswidrig. Dies hat das Verwaltungsgericht Köln am Montag unter Verweis auf einen Beschluss vom 15. März mitgeteilt. Die Richter folgten damit einem Eilantrag von Vodafone. Ihr Hauptargument: Die Regulierungsbehörde habe gepatzt und voreilige Schlüsse gezogen. Die Entscheidung ist unanfechtbar (Az.: 1 L 2288/23).
Nach Paragraph 155 des Telekommunikationsgesetzes [1] (TKG) müssen Netzbetreiber, die für den Breitbausaubau staatliche Fördermittel genutzt haben, grundsätzlich aktive und passive Zugangsprodukte für Wettbewerber bereithalten. Durch diese Pflicht soll der Wettbewerb auf dem Endkundenmarkt gefördert werden. Einigen sich beide Unternehmen nicht über die vertraglichen Bedingungen dieses offenen Zugangs ("Open Access [2]"), kann die Bundesnetzagentur diese auf Antrag in einem Streitbeilegungsverfahren festlegen.
Erstmals machte die Regulierungsbehörde von dieser Kompetenz am 31. Oktober 2023 Gebrauch. Im Schlichtungsverfahren BK11-23-003 zwischen Vodafone und dem Münchner Anbieter M-net setzte sie monatliche Gebühren je Endkundenanschluss für den Zugang zu einem öffentlich geförderten Glasfasernetz im Main-Kinzig-Kreis fest, das der Düsseldorfer Konzern betreibt. Dazu errechnete die Netzagentur Durchschnittspreise aus bereits vereinbarten monatlichen Entgelten für die Mitnutzung von Glasfasernetzen zwischen Unternehmen in Gebieten Deutschlands, in denen keiner der Beteiligten eine öffentliche Geldspritze in Anspruch nahm.
Zentraler Streitpunkt waren aus Sicht von M-net die von Vodafone zunächst angesetzten Vorleistungsentgelte. Diese seien zu hoch, um auf Endnutzerebene mit Vodafone in den Wettbewerb treten zu können. Die Regulierungsbehörde setzte die Monatspreise im Anschluss mit Preisen zwischen 16,07 Euro netto [3] für einen sogenannten Bitstromzugang mit 100 MBit/s Uplink und 50 MBit/s Downlink und 41,04 Euro bei Bandbreiten von 1000 beziehungsweise 500 MBit/s fest. Gegen die Auflage wehrte sich Vodafone mit dem jetzt gebilligten Eilantrag.
Das Verwaltungsgericht begründete seine Haltung vor allem damit, dass die Entscheidung der Netzagentur formell rechtswidrig sei. Sie habe den Beteiligten nicht hinreichend rechtliches Gehör gewährt. Nach der Auswertung einer Marktabfrage durch die Regulierungsbehörde hatten den Richtern zufolge weder Vodafone noch M-net die Möglichkeit, zu der Frage der Berechnung der Montagsgebühren Stellung zu nehmen.
Das Gericht bewertet die Preisfindung der Bundesnetzagentur als fehlerhaft, da bei der Durchschnittsermittlung Entgelte aus unterschiedlichen Geschäftsmodellen mit variierender Risikoverteilung vermengt worden seien. Die Regulierungsbehörde hätte sich auch nicht auf die Festlegung von monatlichen Überlassungsentgelten beschränken dürfen. Weitere Vertragsbedingungen wie etwa die Frage, ob eine Mindestabnahmemenge besteht oder ob es zusätzlich zum monatlichen Betrag Einmalentgelte gibt, seien aber außenvorgeblieben.
Eine Sprecherin der Bundesnetzagentur erklärte gegenüber heise online, man werde die Begründung des Verwaltungsgerichts zunächst prüfen und "danach über die weitere Vorgehensweise entscheiden". Vodafone und M-net reagierten am Montagnachmittag zunächst nicht auf eine Bitte um Stellungnahme.
Das Verfahren wird in der Branche genau beobachtet. Der ursprüngliche Beschluss der Bundesnetzagentur galt als Präzedenzfall für die Linie der Regulierungsbehörde in Streitfällen um Open Access. Marktteilnehmer messen der Auseinandersetzung große Bedeutung auch für künftige vergleichbare Verfahren bei.
Erstmals verdonnerte die Regulierungsbehörde im November 2022 mit der Netcom Kassel einen Betreiber zu einem Open-Access-Angebot [4] für einen Konkurrenten bei einem geförderten Netz. Den entsprechenden Antrag stellte hier das Göttinger Unternehmen Goetel.
Hermann Rodler, Ex-Geschäftsführer Technik beim Münchner Provider M-net, brach schon 2022 eine Lanze für das Open-Access-Modell [5], bei dem Betreiber Konkurrenten mit auf ihr Netz lassen. Dies sei durchaus ein Geschäft. In München kauften bei M-net drei von vier Mobilfunkern Zugang zu unbeschalteten Glasfasern ("Dark Fiber") ein. So komme Verkehr aufs Netz, auch wenn die Margen bei einer Eigenvermarktung größer seien.
Ein Sprecher von M-net hob gegenüber heise online hervor, das Gericht habe noch einmal explizit bestätigt, dass Betreiber öffentlich geförderter Glasfasernetze anderen Telekommunikationsunternehmen Zugang zu diesem Netz gewähren müssten. Angesichts der festgestellten Mängel sei es möglich, dass die Richter im noch laufenden Hauptsacheverfahren zu einem anderen rechtlichen Schluss kommen könnten. Andererseits könnte die Netzagentur einen neuen Entgeltbeschluss fassen, um den erkannten Problemen Abhilfe zu schaffen. Parallel werde M-Netz die laufenden Gespräche zum Abschluss einer Open-Access-Vereinbarung mit Vodafone konstruktiv und lösungsorientiert weiter fortsetzen, um baldmöglichst die notwendige technische Implementierung für die angestrebte Bitstream-Kooperation umsetzen zu können.
Vodafone begrüßt die Entscheidung. "Das Gericht kritisiert zu Recht die Art und Weise, wie die Bundesnetzagentur die Höhe der Entgelte für das Glasfaser-Vorleistungsprodukt im Netz des Main-Kinzig-Kreises festgelegt hat", erklärte ein Sprecher. "Gefördert oder eigenwirtschaftlich – die Kostenstrukturen können je nach Ausbau-Modell sehr unterschiedlich sein. Auch regionale Unterschiede sind zu berücksichtigen." Die Festlegung pauschaler und vor allem zu niedriger Entgelte sei daher nicht zielführend und könne millionenschwere Infrastrukturmaßnahmen zu hochdefizitären Projekten werden lassen. Der Zugang zu Glasfasernetzen via Open Access sei zwar wichtig und richtig, müsse aber kostendeckend erfolgen.
URL dieses Artikels:
https://www.heise.de/-9658542
Links in diesem Artikel:
[1] https://www.gesetze-im-internet.de/tkg_2021/BJNR185810021.html
[2] https://www.heise.de/news/Grosse-Koalition-Kein-eigenstaendiges-Digitalministerium-3962324.html
[3] https://www.roedl.de/themen/kompass-telekommunikation/2023/11/bundesnetzagentur-legt-erstmals-vorleistungsentgelte-fuer-layer-zwei-bitstromzugangsprodukte
[4] https://www.heise.de/news/Glasfaser-und-Foerderung-Bundesnetzagentur-verordnet-erstmals-offenen-Netzzugang-7357458.html
[5] https://www.heise.de/news/Gigabit-Symposium-Die-Energiewende-treibt-die-Migration-zu-Glasfaser-7336712.html
[6] mailto:vbr@heise.de
Copyright © 2024 Heise Medien
(Bild: INSAGO / Shutterstock.com)
Methanemissionen sind einer der größten Treiber des Klimawandels. Mithilfe neue Technologien und Messungen spüren Forscher die größten Lecks langsam auf.
Alarmierende Ergebnisse sind es, auf die Forscherinnen und Forscher jüngst aufmerksam machen: Die Methanemissionen in den US-amerikanischen Öl- und Gasförderregionen sind in vielen Gebieten deutlich höher als von der US-Regierung geschätzt. Anhand von Messungen aus Flugzeugen haben die Forschenden eine der bisher umfassendsten Untersuchungen hinsichlicht Methan vorgenommen. Die in der Fachzeitschrift Nature veröffentlichte Studie [1] macht deutlich, dass dringend neue und bessere Methoden zur Erfassung des Treibhausgases benötigt werden.
Methanemissionen [2] sind für fast ein Drittel der gesamten bisherigen Erwärmung des Planeten verantwortlich. Zwar entweicht Methan auch natürlich, etwa in Feuchtgebieten [3], doch menschliche Aktivitäten wie die Landwirtschaft und die Produktion fossiler Brennstoffe haben Millionen Tonnen zusätzliches Methan in die Atmosphäre entlassen. Die Methankonzentration hat sich in den vergangenen 200 Jahren mehr als verdoppelt.
Woher kommen die Emissionen genau? Diese Frage ist gar nicht so einfach zu beantworten. Dabei wäre das ein entscheidender erster Schritt zur Verringerung der Emissionen und zur Bewältigung des Klimawandels. Die US-Umweltschutzbehörde schätzt, dass etwa ein Prozent des geförderten Erdöls und Erdgases als Methanverschmutzung in die Atmosphäre entweicht. Zahlreiche [4] Untersuchungen [5] deuten aber daraufhin, dass der tatsächliche Anteil deutlich höher ist.
Mit Technologien wie dem kürzlich gestarteten MethaneSAT-Satelliten [6] und neue Boden- und Lufterhebungen kommen Forscher den Methanlecks zunehmend auf die Schliche. Bei den in der neuen Studie untersuchten Standorten "scheinen die Methanemissionen im Durchschnitt höher zu sein als die Schätzungen der Regierung", sagt Evan Sherwin, Forscher am Lawrence Berkeley National Laboratory, der die Analyse als Postdoktorand an der Stanford University durchgeführt hat.
Die von Sherwin und seinem Team verwendeten Daten stammen aus einer der bisher größten Erhebungen von US-Produktionsstätten für fossile Brennstoffe. Ab 2018 kartierten Kairos Aerospace und das Carbon Mapper Project [7] sechs große öl- und gasproduzierende Regionen, die zusammen etwa 50 Prozent der Onshore-Ölproduktion und etwa 30 Prozent der Gasproduktion in den USA ausmachen. Flugzeuge, die über die Regionen flogen, führten fast eine Million Messungen von Bohrlöchern mithilfe von Spektrometern durch, die Methan mit Hilfe bestimmter Lichtwellenlängen erkennen können.
Hier wird es kompliziert. Methanquellen bei der Öl- und Gasförderung gibt es in allen Formen und Größen. Aus einigen kleinen Bohrlöchern entweicht das Gas langsam über einen langen Zeitraum mit einer Geschwindigkeit von etwa einem Kilogramm Methan pro Stunde. Andere Quellen sind wesentlich größer und stoßen Hunderte oder sogar Tausende von Kilogramm pro Stunde aus, zumeist aber nur für eine kurze Zeit.
Die Flugzeuge, die bei diesen Erhebungen eingesetzt werden, entdecken meist die größten Lecks, die über 100 Kilogramm pro Stunde ausstoßen. Durch die Kombination von Messungen dieser großen Leckstellen mit Modellierungen zur Abschätzung kleinerer Quellen schätzten die Forscher, dass die größeren Lecks für einen übergroßen Teil der Emissionen verantwortlich sind. In vielen Fällen können etwa ein Prozent der Bohrlöcher für mehr als die Hälfte der gesamten Methanemissionen verantwortlich sein, sagt Sherwin.
Einige Wissenschaftler weisen jedoch darauf hin, dass diese und andere Studien durch die verfügbaren Messinstrumente noch immer begrenzt sind. Da die Forscher große Methanlecks aus der Luft gemessen und kleinere Quellen modelliert haben, ist es möglich, dass die Studie die Bedeutung der größeren Lecks überschätzt, sagt Ritesh Gautam, leitender Wissenschaftler beim Environmental Defense Fund, der an der Entwicklung des MethaneSAT beteiligt ist. Er verweist auf mehrere andere aktuelle Studien [8], die zeigen, dass die kleineren Bohrungen einen größeren Anteil an den Methanemissionen haben.
Das Problem sei, dass es im Grunde unmöglich ist, all diese verschiedenen Methanquellen mit nur einem Instrument zu messen. Man bräuchte alle verfügbaren Messtechnologien, um ein klareres Bild zu erhalten, sagt Gautam. Dazu gehören an Türmen angebrachte bodengestützte Geräte, die ein Gebiet ständig überwachen und kleine Emissionsquellen aufspüren können. Zusätzlich müssten Flugzeugen größeres Gebiete per Luftüberwachung abdecken.
Und dann sind da noch Satelliten [9] wie MethaneSAT, der sich in die wachsende Konstellation der Methanerkennungssatelliten einreiht, die die Erde umkreisen. Einige der vorhandenen Satelliten erfassen riesige Gebiete mit einer Detailgenauigkeit von nur wenigen Kilometern. Andere haben eine viel höhere Auflösung und sind in der Lage, Methanemissionen bis auf wenige Dutzend Meter genau zu erfassen. Solche Satelliten seien künftig wichtig, wenn es darum geht, mehr über Methanemissionen in Ländern herauszufinden, die nicht so genau gemessen und kartiert wurden wie die USA, sagt Gautam.
Methanemissionen zu finden und zu verstehen, ist eine Sache. Sie tatsächlich zu bekämpfen eine andere. Nach der Identifizierung eines Lecks müssen die Unternehmen Maßnahmen ergreifen. Sie können defekte Pipelines reparieren oder Entlüftungsöffnungen und Methan-Fackeln [10], die routinemäßig Methan in die Atmosphäre abgeben, schließen. Etwa 40 Prozent der Methanemissionen aus der Öl- und Gasförderung verursachen keine Nettokosten, da das Geld, das durch die Vermeidung von Methanverlusten eingespart wird, nach Schätzungen der Internationalen Energieagentur [11] die Kosten für die Vermeidung von Methanverlusten mehr als ausgleicht.
Mehr als 100 Länder haben sich 2021 dem Global Methane Pledge [12] angeschlossen und sich zum Ziel gesetzt, die Methanemissionen bis zum Ende des Jahrzehnts um 30 Prozent gegenüber dem Stand von 2020 zu senken. Die von der Regierung von US-Präsident Joe Biden angekündigten neuen Vorschriften für Öl- und Gasproduzenten könnten den USA helfen, diese Ziele zu erreichen. Anfang dieses Jahres veröffentlichte die EPA Einzelheiten zu einer vorgeschlagenen Methanabgabe für Unternehmen, die fossile Brennstoffe fördern, die auf der Grundlage des in die Atmosphäre abgegebenen Methanüberschusses berechnet werden soll.
URL dieses Artikels:
https://www.heise.de/-9657696
Links in diesem Artikel:
[1] https://www.nature.com/articles/s41586-024-07117-5
[2] https://www.heise.de/hintergrund/Sensor-an-der-ISS-kartiert-bisher-unentdeckte-CO-und-Methanemissionen-9530577.html
[3] https://www.heise.de/hintergrund/Studie-Feuchtgebiete-geben-bis-zu-1-4-Millionen-Tonnen-mehr-Methan-pro-Jahr-ab-8255812.html
[4] https://www.technologyreview.com/2022/03/28/1048425/permian-basin-methane-emissions/
[5] https://e360.yale.edu/digest/methane-emissions-from-oil-and-gas-exceed-epa-estimates-study-finds
[6] https://www.heise.de/hintergrund/Satellit-fuer-Methan-soll-Lecks-und-grosse-Quellen-entdecken-9051189.html
[7] https://carbonmapper.org/
[8] https://www.nature.com/articles/s41467-022-29709-3
[9] https://www.heise.de/thema/Satellit
[10] https://www.heise.de/news/Abblasen-statt-abfackeln-Satelliten-finden-irrsinnige-versteckte-Methanleaks-8992410.html
[11] https://www.iea.org/reports/global-methane-tracker-2023/strategies-to-reduce-emissions-from-oil-and-gas-operations
[12] https://www.globalmethanepledge.org/
[13] https://www.instagram.com/technologyreview_de/
[14] mailto:jle@heise.de
Copyright © 2024 Heise Medien
Forschen gegen Lebensmittelverschwendung: Professor Andreas Schütze (li.) und Christian Bur von der Universität des Saarlandes.
(Bild: Iris Maurer)
EU-Forschende wollen die Verschwendung von Lebensmitteln eindämmen – mit einer Vorratsbox mit Sensor und einem Messgerät für den Supermarkt.
Ist das noch gut oder kann das weg? Den Zustand von Wurst, Käse oder Gemüse zu beurteilen, ist gar nicht so einfach. Ästhetik – das ist mittlerweile bekannt – spielt dabei im Grunde keine Rolle. Nase und Gaumen liefern bessere Hinweise, auf welcher Stufe der Essbarkeitsskala ein Lebensmittel gerade steht. In Zukunft könnte die Bewertung eine neue Messtechnik übernehmen. Zumindest, wenn der Plan von Forschenden im EU-Projekt "Serenade" [1] aufgeht. Ihr Ziel ist, die Verschwendung von Lebensmitteln zu bremsen.
"Wir entwickeln Verfahren, um die Qualität von Lebensmitteln zu überwachen", sagt Andreas Schütze, Messtechnikexperte an der Universität des Saarlandes und am Projekt beteiligt. "Konkret sind dies ein intelligenter Vorratsbehälter, der seinen Inhalt kontrolliert, und ein Messgerät für Supermärkte. Allein dadurch, dass es über die Kisten gehalten wird, soll es genau angeben, wie lange unverpacktes Obst und Gemüse noch essbar sind."
Aus einer Luftanalyse über den Lebensmitteln soll das System entsprechende Informationen ziehen, Schlussfolgerungen treffen und dann das Ergebnis auf einem Display anzeigen, zum Beispiel: "noch fünf Tage frisch". Im Supermarkt könnten gefährdete Lebensmittel frühzeitig im Preis reduziert und so noch an den Mann oder die Frau gebracht werden. Die mit Sensoren gespickte Vorratsdose wiederum gebe "grünes Licht", wenn der Inhalt noch bedenkenlos verzehrt werden könne, so Schütze.
Das Projekt wird von der EU mit 1,8 Millionen Euro gefördert. Beteiligt sind zehn Partnerinstitutionen aus Belgien, Deutschland, Italien und Spanien, zudem fünf Unternehmen. Dass soviel Geld, Man- und Womanpower zum Einsatz kommen, ist vermutlich auch der Größe des Problems geschuldet.
Laut dem EU-Amt Eurostat beziffern sich die Lebensmittelverluste in der EU im Jahr 2021 auf 131 Kilogramm Lebensmittelabfälle pro Kopf [2] an. Privathausalte sind mit einem Anteil von 54 Prozent die Hauptverursacher, die Hersteller folgten mit 21 Prozent. Landwirtschaft und Gastronomie sorgen für jeweils neun Prozent der Abfälle und der Handel schlägt mit sieben Prozent zu Buche.
Die Zahlen sind zwar nur bedingt aussagekräftig, da der Begriff Lebensmittelverluste nicht einheitlich definiert und die Datenlage derzeit noch dünn ist. Dass sie zu hoch sind, ist aber unbestritten. Schließlich bedeutet Lebensmittelverschwendung nicht nur wirtschaftliche Einbußen bei Herstellern und Händlern, sondern auch mehr Land- und Energieverbrauch, mehr Düngemittel und Pestizide in der Umwelt.
Die Technologie aus dem EU-Projekt, die dabei helfen soll, die Verschwendung einzudämmen, ist eine Kombination aus Gassensorsystemen und künstlicher Intelligenz, die Muster in den Ausdünstungen der Lebensmittel erkennt. Denn was Menschen etwa als eklig süßlichen oder erdigen Geruch wahrnehmen, wenn Lebensmittel faulen oder gären, sind Stoffwechselprodukte von Mikroorganismen wie Bakterien, Hefen oder Schimmelpilzen. Beim Zersetzen entstehen gleich eine ganze Reihe flüchtiger, zum Teil übel riechender Stoffe, zum Beispiel Ammoniak, Schwefelwasserstoff, Ethen oder Essigsäure.
"Gerüche hinterlassen in der Luft eine Art persönlichen Fingerabdruck, der sich aus verschiedenen Konzentrationen verschiedener Stoffe zusammensetzt", sagt Christian Bur. "An den individuellen Geruchs-Abdrücken, sogenannten Smellprints, wollen wir den jeweiligen Zustand der Lebensmittel ablesen. Hierfür ordnen wir die einzelnen Smellprints den verschiedenen Zuständen zu."
Die neuen Gassensorsysteme sollen zudem hoch empflindlich sein, selbst einzelne Abbaumoleküle unter Milliarden Luftmolekülen messen können – und auch Gase wie Ethen oder Kohlenstoffdioxid erfassen, die Menschen nicht riechen können. Wer wissen möchte, wie gut die Ideen für die Praxis taugen, muss sich allerdings noch ein bisschen gedulden. Das Projekt ist noch in der Anfangsphase.
URL dieses Artikels:
https://www.heise.de/-9656545
Links in diesem Artikel:
[1] https://serenade-project.eu/
[2] https://ec.europa.eu/eurostat/statistics-explained/index.php?title=Food_waste_and_food_waste_prevention_-_estimates&action=statexp-seat&lang=de
[3] https://www.instagram.com/technologyreview_de/
[4] mailto:anh@heise.de
Copyright © 2024 Heise Medien
(Bild: gemeinfrei)
Lobbyarbeit zwang die SEC, ihre Vorschriften zur Offenlegung des CO₂-Fußabdruckes von Unternehmen zu verwässern. Die fossile Wirtschaft profitiert.
In der vergangenen Woche hat die US-Börsenaufsicht Securities and Exchange Commission, kurz SEC, eine Reihe lang erwarteter neuer Klimatransparenzregeln [1] erlassen. Sie sollen die meisten börsennotierten Unternehmen dazu verpflichten, ihre Treibhausgasemissionen und die Klimarisiken, die sie in ihren Bilanzen aufbauen, offenzulegen. Das Problem: Die SEC hat die Vorschriften aufgrund intensiver Lobbyarbeit vonseiten der Wirtschaft verwässert, was letztlich ihre Wirksamkeit untergräbt. Damit wird eine wichtige Chance verpasst, an US-Märkten gelistete Unternehmen zu zwingen, sich mit den wachsenden Gefahren der Erderwärmung zu beschäftigen.
Ausschlaggebend für die neuen SEC-Vorschriften war die Erkenntnis, dass Klimarisiken auch finanzielle Risiken sind. Globale Unternehmen sind beispielsweise heute schon mit klimabedingten Unterbrechungen der Lieferkette konfrontiert. Ihre Sachwerte sind anfällig für Stürme, ihre Mitarbeiter extremen Hitzeperioden ausgesetzt [2]. Ihre Kunden könnten gezwungen sein, Standorte zu verlagern. Hinzu kommt: In ihren Bilanzen befinden sich Vermögenswerte auf Basis fossiler Brennstoffe [3], die sie vielleicht nie verkaufen können. Und viele Geschäftsmodelle werden durch den Klimawandel zumindest infrage gestellt.
Dabei geht es nicht nur um Unternehmen aus den Bereichen Kohle, Öl oder Gas. Es handelt sich auch um Versorgungsunternehmen, Transportfirmen, Rohstoffproduzenten, Konsumgüterhersteller und sogar Lebensmittelkonzerne. Und die Anleger – wir alle – kaufen und halten diese Aktien, die mit fossilen Energieträgern verknüpft sind, oft ohne es zu wissen. Investoren, politische Entscheidungsträger und die breite Öffentlichkeit benötigen deshalb klarere und bessere Informationen darüber, ob und wie Unternehmen den Klimawandel antreiben, was sie vielleicht tun, um seine Auswirkungen zu bekämpfen und was Kaskadeneffekte für ihre Bilanzen bedeuten könnten.
Die neuen SEC-Vorschriften schreiben vor, was bisher im Wesentlichen ein freiwilliges System der "Corporate Carbon Governance" war. Sie verpflichten die Unternehmen nun, darüber zu informieren, wie sich klimabezogene Risiken auf ihr Geschäft auswirken könnten. Außerdem müssen sie direkte Emissionen aus Quellen, die sie selbst besitzen oder die sie kontrollieren, sowie ihre indirekten Emissionen aus der Erzeugung von eingekaufter Energie offenlegen, also beispielsweise dem Erwerb und Strom und Wärme. Entscheidend ist allerdings, dass die Unternehmen dies nur dann tun müssen, wenn sie diese Informationen als finanziell "wesentlich" einstufen. Und genau das lässt den Unternehmen einen beträchtlichen Spielraum bei der Entscheidung, wie transparent sie sein wollen.
Der ursprüngliche Entwurf der SEC-Vorschriften hätte von den Unternehmen auch verlangt, die Emissionen aus "vor- und nachgelagerten Aktivitäten" in ihren Wertschöpfungsketten anzugeben. Dies bezieht sich im Allgemeinen auf die damit verbundenen Emissionen von Lieferanten und Kunden, die oft 80 Prozent der gesamten Klimabelastung eines Unternehmens ausmachen. Der Wegfall dieser Anforderung und die Hinzufügung des Standards der "Wesentlichkeit" scheinen nun auf den starken Druck von Firmengruppen zurückzuführen zu sein. Immerhin dürften die neuen SEC-Vorschriften dazu beitragen, dass klarer wird, wie einige Unternehmen mit dem Klimawandel [5] und ihrem Beitrag dazu umgehen. Aus rechtlicher Vorsicht dürfte einiges finanziell "wesentlicher" sein als bislang gedacht.
Klarere Informationen werden dazu beitragen, die Klimaschutzmaßnahmen der Unternehmen zu beschleunigen, da um ihren Ruf besorgte Firmen zunehmend Druck von Kunden, der Konkurrenz und einigen Investoren spüren dürften, ihre Emissionen zu reduzieren. Aber die SEC hätte noch viel weiter gehen können. Schließlich sind ähnliche Maßnahmen in der EU bereits umfassender und strenger. Selbst ein kalifornisches Gesetz zur Offenlegung von Emissionen, das im vergangenen Oktober unterzeichnet wurde, geht weiter. Es verpflichtet sowohl börsengelistete als auch private Unternehmen mit einem Umsatz von mehr als einer Milliarde US-Dollar, über jede einzelne Emissionskategorie zu berichten und diese Daten anschließend von einer dritten Partei überprüfen zu lassen.
Leider bringen die neuen SEC-Vorschriften die Unternehmen lediglich an die Startlinie eines solchen Prozesses, der für die Dekarbonisierung der Wirtschaft erforderlich wäre. Dabei sollten die Konzerne längst in diesem Rennen sein. Freiwillige Transparenz ist wenig hilfreich. Firmen, die diese betreiben, haben bislang nur minimale Fortschritte bei der Reduzierung ihrer Treibhausgasemissionen gemacht. Das Offenlegungssystem, auf dem die SEC-Vorschriften beruhen, hat dabei mit zwei grundlegenden Problemen zu kämpfen, die den Umfang und die Wirksamkeit der CO₂-Offenlegung einschränken.
Erstens: Probleme mit den Daten selbst. Die SEC-Vorschriften räumen den Unternehmen einen erheblichen Spielraum bei der Bilanzierung ihrer Emissionen ein, der es ihnen erlaubt, unterschiedliche Grenzen für ihren CO₂-Fußabdruck festzulegen, Emissionen unterschiedlich zu modellieren und zu messen und sogar zu variieren, wie sie ihre Emissionen letztlich melden. Insgesamt werden wir zum Schluss wohl nur Unternehmensberichte über Teilemissionen des Vorjahres erhalten, ohne dass wir wissen, was ein Unternehmen tatsächlich tat, um seine Emissionen zu verringern. Zweitens: Einschränkungen bei der Nutzung dieser Daten durch Interessengruppen. Wie man schon bei freiwilligen Klimaverpflichtungen von Unternehmen sehen kann, machen es die verschiedenen Standards beim Reporting nahezu unmöglich, Firmen genauer zu vergleichen. So warnt das New Climate Institute davor, dass es immer schwieriger wird, zwischen echten Klimaschutzmaßnahmen und Greenwashing zu unterscheiden [6] – trotz zunehmender Transparenzforderungen.
Die bisherigen Bemühungen von Investoren, CO₂-Emissionen [7], Dekarbonisierungspläne und Klimarisiken durch ESG-Bewertungssysteme zu bewerten, haben lediglich zu noch mehr Verwirrung geführt, bemängeln Forscher. Unternehmen wurden bislang kaum dafür abgestraft, wenn sie ihre Emissionen nicht klar offenlegten oder nicht einmal die eigenen Standards erfüllten. Die neuen SEC-Klimaregeln dürften diesen unhaltbaren Zustand nicht ändern. Dabei benötigen Firmen, Investoren und die Öffentlichkeit Transparenz, um positive Veränderungen innerhalb der Unternehmen vorantreiben und sie von außen angemessen bewerten zu können.
Ein solches System muss die Hauptverursacher geschäftlicher Emissionen aufspüren und den Unternehmen Anreize für echte Investitionen in Bemühungen um tiefgreifende Emissionssenkungen bieten, sowohl innerhalb einer Firma selbst als auch in ihrer gesamten Lieferkette. Die gute Nachricht ist, dass man solche unvollständigen Regeln wie die der SEC als Anlass nehmen kann, sinnvollere Klimaschutzmaßnahmen zu ergreifen.
Die klügsten Firmen und Investoren gehen bereits über die SEC-Vorschriften hinaus. Sie entwickeln bessere Systeme, um Ursachen und Kosten von Kohlendioxidemissionen zu ermitteln, und unternehmen konkrete Schritte, um sie zu bekämpfen. Dabei geht es um die Reduzierung des Energieverbrauchs, neue, effizientere Infrastrukturen und CO₂-ärmere Materialien, Produkte und Verfahren. Das kann wiederum zum guten Geschäft werden, denn weniger CO₂ bedeutet oftmals auch weniger Kosten.
Die SEC hat daher einen wichtigen, wenn auch mangelhaften ersten Schritt getan, um die amerikanische Finanzelite zur Anerkennung von Klimaauswirkungen und deren Risiken zu bewegen. Aufsichtsbehörden und Unternehmen müssen nun selbst das Tempo erhöhen und sicherstellen, dass sie ein klares Bild davon vermitteln, wie schnell oder langsam sich die einzelnen Branchen bewegen. Nur dann werden sie auf einem sich erwärmenden Planeten weiter erfolgreich sein.
URL dieses Artikels:
https://www.heise.de/-9655912
Links in diesem Artikel:
[1] https://www.sec.gov/news/press-release/2024-31
[2] https://www.heise.de/hintergrund/So-viel-Hitze-haelt-unser-Koerper-aus-9241571.html
[3] https://www.heise.de/hintergrund/Moment-der-Abrechnung-COP28-und-die-Oel-und-Gasindustrie-9543322.html
[4] https://creativecommons.org/licenses/by-sa/2.0/deed.en
[5] https://www.heise.de/thema/Klimawandel
[6] https://newclimate.org/sites/default/files/2022/02/CorporateClimateResponsibilityMonitor2022.pdf
[7] https://www.heise.de/thema/CO2
[8] https://www.instagram.com/technologyreview_de/
[9] mailto:jle@heise.de
Copyright © 2024 Heise Medien
(Bild: Dilok Klaisataporn/Shutterstock.com)
.NET 8.0 bietet neue Hilfsmethoden zum Auslösen von Fehlern bei falschen Parametern.
In .NET 6.0 hatte Microsoft die Wächter-Methode ArgumentNullException.ThrowIfNull(Wert) eingeführt, um zu prüfen, ob ein Methodenparameter als Null-Wert übergeben wurde. In .NET 7.0 folgte ArgumentException.ThrowIfNullOrEmpty(Wert) für Zeichenketten.
In .NET 8.0 gibt es nun weitere Wächter für die Methodenparameter, die auch Wertebereiche bei Zahlen prüfen:
ArgumentOutOfRangeException.ThrowIfZero()ArgumentOutOfRangeException.ThrowIfNegative()ArgumentOutOfRangeException.ThrowIfNegativeOrZero()ArgumentOutOfRangeException.ThrowIfGreaterThan()Das funktioniert mit allen Zahlentypen, auch eigenen Zahlentypen auf Basis von INumberBase<T> und IComparable<T>.
namespace NET8_Console;
public class FCL_Exceptions
{
public string Calc(decimal? betrag, decimal prozent, string einheit)
{
#region neue Wächtermethoden vor .NET 8.0
// seit .NET 6.0:
ArgumentNullException.ThrowIfNull(betrag);
// seit .NET 7.0:
ArgumentException.ThrowIfNullOrEmpty(einheit);
#endregion
#region neue Wächtermethoden in .NET 8.0
ArgumentOutOfRangeException.ThrowIfZero(betrag.Value);
ArgumentOutOfRangeException.ThrowIfNegativeOrZero(betrag.Value);
ArgumentOutOfRangeException.ThrowIfNegative(prozent);
ArgumentOutOfRangeException.ThrowIfGreaterThan(prozent, 100);
#endregion
var ergebnis = betrag * prozent / 100;
return $"{prozent}% von {betrag} {einheit} sind {ergebnis} {einheit}";
}
public void Run()
{
// 50% von 42 Euro sind 21 Euro:
Console.WriteLine(Calc(42, 50, "Euro"));
}
}
URL dieses Artikels:
https://www.heise.de/-9656153
Links in diesem Artikel:
[1] mailto:rme@ix.de
Copyright © 2024 Heise Medien
Screenshot aus dem Video zum Baufortschritt des Druckluftspeichers in Ahaus.
(Bild: Screenshot / Corre Energy)
Druckluftspeicher im Münsterland sollen große Mengen Strom speichern. Die Idee dahinter ist nicht neu, aber jetzt könnte ihr eine Renaissance bevorstehen.
Druckluftspeicher sind die Exoten unter den Stromspeichern. Weltweit gibt es gerade einmal zwei Anlagen. Eine davon befindet sich im niedersächsischen Huntorf [1], und die ist schon fast ein halbes Jahrhundert alt. Jetzt will der Ökostromanbieter Lichtblick die Technik wiederbeleben [2].
Die Idee, Luft als Speichermedium zu benutzen, klingt erst einmal einleuchtend. Schließlich ist sie billig und überall verfügbar. Komprimiert man sie mit überschüssigem Strom und speichert sie in großen Kavernen, kann sie anschließend eine Turbine antreiben. Doch die Sache hat einen Haken: Beim Verdichten entsteht Abwärme, was Wirkungsgrad kostet. Und beim Entspannen wird die Luft so kalt, dass die Turbinen vereisen. Also muss zugefeuert werden. Die Anlage in Huntorf ist deshalb eher ein Gaskraftwerk mit eingebautem Turbolader denn ein Stromspeicher.
Der Stromversorger RWE wollte das Verfahren effizienter machen und die Wärme, die beim Komprimieren entsteht, in einem Wärmespeicher zwischenlagern, um sie bei der Rückverstromung wieder nutzen zu können. Dieses "adiabate" System erwies sich aber offenbar als unwirtschaftlich und wurde nie gebaut.
Der nun von Lichtblick zusammen mit Siemens Energy, dem niederländischen Speicherspezialisten Corre Energy sowie dem Energieversorger Eneco [3] gebaute Speicher kommt ohne Wärmepuffer aus. "Die von den Kompressoren erzeugte Abwärme kann als Fernwärme genutzt und vermarktet werden", teilt Lichtblick auf Anfrage mit. Die Zufeuerung soll zunächst mit Erdgas, später mit Wasserstoff geschehen. Standort ist das münsterländische Ahaus. Das liegt nicht weit vom geplanten Wasserstoff-Netz "GetH2" [4] entfernt. Die Round-Trip-Effizienz vom Einspeichern bis zum Ausspeichern beziffert Lichtblick auf 65 Prozent. Das ist zwar weniger als bei einem Pumpspeicherwerk oder einer Batterie, aber mehr als bei einem Wasserstoff-Gaskraftwerk.
Derzeit werden bei Ahaus vier ehemalige Salzkavernen in einer Tiefe von mehr als 1150 Metern ausgespült, mit einem Durchmesser von 70 Metern. Gemeinsam haben sie ein Volumen von rund drei Millionen Kubikmetern. Ihr Druck wird zwischen 100 und 200 bar liegen. Bei der ersten Kaverne ist derzeit knapp 80 Prozent der Aussohlung erreicht. Sie soll 2026 fertig sein. Anschließend müssen noch ausreichend dimensionierte Rohre für den Lufttransport gebohrt werden. Die anderen Kavernen sollen bis 2028 folgen.
In der ersten Phase soll das Speicherkraftwerk 320 Megawatt liefern, etwa so viel wie Huntorf. In der zweiten Phase sollen weitere 320 MW hinzukommen. Der Speicher soll bis zu 100 Stunden lang Strom abgeben können. Rein rechnerisch entspräche ihre Kapazität also 64 Gigawattstunden, fast fünfmal so viel wie alle derzeit hierzulande installierten Batteriespeicher [5] zusammen.
In der Praxis dürfte es weniger werden. "Nachdem die Zyklen typischerweise nicht im Extrembereich zwischen Minimaldruck und Maximaldruck der Kavernen variieren, sondern ökonomisch optimiert meist kürzere Ein- und Ausspeisezyklen gefahren werden, wird der typische Zyklus wenige GWh Stromleistung ein- beziehungsweise ausspeichern", erklärt Lichtblick. "Die Kaverne kann in langen und kurzen Zyklen befahren werden, sodass bei kommerzieller Sinnhaftigkeit auch zum Beispiel nur eine Stunde oder weniger ein- oder ausspeist wird." Diese Flexibilität sei der Kernvorteil gegenüber Batteriespeichern, die sich vor allem für kürzere Zyklen eignen, so Lichtblick. Eine Studie [6] des US-Energieministeriums bestätigt: Gerade bei hohen Leistungen und langen Zyklen seien Druckluftspeicher mit die günstigste Option.
Als Geschäftsmodelle hat das Konsortium einen breiten Bereich im Blick: Intradaymarkt, Day-ahead-Markt, Regelenergie, bilaterale Verträge, et cetera. "Druckluftspeicher können helfen, sowohl die zeitlichen als auch die örtlichen Unterschiede zwischen Erzeugung und Verbrauch auszugleichen", so Lichtblick. "Die zeitlichen Preisunterschiede werden im Markt bereits zunehmend sichtbar."
URL dieses Artikels:
https://www.heise.de/-9655252
Links in diesem Artikel:
[1] https://www.heise.de/hintergrund/Wind-auf-Vorrat-278463.html
[2] https://www.pv-magazine.de/2024/01/30/eneco-und-corre-energy-bauen-gemeinsames-druckluft-speicherprojekt/
[3] https://corre.energy/2024/01/22/agreement-with-eneco-for-german-offtake-development-and-investment/
[4] https://www.get-h2.de/
[5] https://social.heise.de/@VQuaschning@mastodon.green/112088335981727402
[6] https://www.energy.gov/sites/default/files/2022-09/2022%20Grid%20Energy%20Storage%20Technology%20Cost%20and%20Performance%20Assessment.pdf
[7] https://www.instagram.com/technologyreview_de/
[8] mailto:grh@technology-review.de
Copyright © 2024 Heise Medien
HAMMER-Satellit von Open Cosmos
(Bild: Screenshot / X-Post von Open Cosmos)
Ein Nanosatellit im All analysiert Daten mittels KI direkt an Bord. Die Mission von Open Cosmos und Ubotica soll den Weg zu einem "App-Store-Konzept" ebnen.
Künstliche Intelligenz macht auch vor der Raumfahrt nicht halt. Vergangene Woche hat das britische Unternehmen Open Cosmos seinen HAMMER-Satelliten erfolgreich in die Erdumlaufbahn gebracht. Er enthält eine KI-Technologie, die mithilfe der Kameras und Sensoren erhobene Daten noch an Bord auswerten und interpretieren soll. Außerdem soll es erstmals möglich sein, einen Satelliten über eine Smartphone-App zu steuern.
Mit einer Größe von gerade einmal 10 mal 35 Zentimetern und einem Gewicht von etwa zwei Kilogramm, ist HAMMER ein sogenannter Nanosatellit. Sein Name steht für "Hyperspectral AI for Marine Monitoring and Emergency Response" [1], und eines der Kernmodule ist dementsprechend eine Hyperspektralkamera, die elektromagnetische Signale von sehr vielen, eng beieinanderliegenden Wellenlängen aufnehmen kann. Dadurch lassen sich Veränderungen etwa von maritimen Lebensräumen oder der Landwirtschaft verfolgen.
Als Teil des Satellitenverbundes OpenConstellation [2] soll HAMMER in den kommenden Jahren unter anderem die Veränderung von Küsten überwachen und im Fall von Naturkatastrophen wie Überschwemmungen oder Waldbränden möglichst in Echtzeit Daten liefern. Aber auch zahlende Kunden aus der industriellen Landwirtschaft sollen auf den Satelliten zugreifen können, um sowohl ihre Infrastruktur als auch Erträge aus dem All zu überwachen und zu analysieren.
Während Open Cosmos die "Hardware" des Satelliten stellt und für den Betrieb sorgt, kümmert sich das irische Luft- und Raumfahrtunternehmen Ubotica um die Anwendungen als Teil seiner CogniSAT-6 genannten Mission. "CogniSAT-6 wird eine der am besten vernetzten und intelligentesten KI-gestützten Missionen sein, die jemals ins All geschickt wurde", sagt Ubotica-Mitgründer Sean Mitchell [3]. Zwar habe es ab dem Jahr 2000 schon diverse andere Missionen gegeben, die Formen von künstlicher Intelligenz an Bord hatten, sagten Ingenieure von Ubotica im Oktober auf einer Fachkonferenz [4]. Bislang habe aber noch keine kommerzielle Mission den Einsatz von neuralen Netzen und "On-board-Entscheidungsalgorithmen" demonstriert.
CogniSAT-6 soll das ändern. Die Algorithmen sind in der Lage, die Bilddaten der Kamera sofort an Bord des Satelliten auszuwerten. Gewöhnlich werden Daten zunächst vom Satelliten an eine Bodenstation übertragen, dort ausgewertet und etwaige Rückmeldungen anschließend wieder ins All geschickt. Je nach Menge der Daten kann das einige Stunden dauern. Werden die Daten direkt im All analysiert, müssen nicht nur weniger Daten insgesamt übertragen werden, sie können zudem in quasi-Echtzeit analysiert werden. Wie Mitchell sagt, könne CogniSAT-6 brauchbare Erkenntnisse schon fünf Minuten nach der Aufnahme liefern.
Dadurch sei es möglich, sofort auf Veränderungen zu reagieren: Erkennt das System etwa einen Waldbrand oder einen Ölteppich, kann es selbstständig entscheiden, ob es das betroffene Gebiet weiterhin überwachen soll. Industrielle Landwirtschaftsbetriebe können in Echtzeit die Bewässerung ihrer Felder verfolgen und ihre Abläufe anhand der gewonnen Erkenntnisse entsprechend anpassen. Und da HAMMER direkt mit anderen Satelliten des OpenConstellation-Verbundes kommuniziert, können diese bei Bedarf dazu geschaltet werden und agieren gleichzeitig als Relaisstation für die Datenübertragung.
Eine Besonderheit ist nicht zuletzt auch die Möglichkeit, per App mit dem Satelliten kommunizieren zu können. "Mit unseren Apps können Benutzer Warnungen vom Satelliten empfangen und sich Informationen für relevante Anwendungen anzeigen lassen. Außerdem können sie dem Satelliten eine Nachricht oder einen Befehl zurückzusenden", sagt Mitchell.
Daran geknüpft sind auch die Pläne von Ubotica, künftig Satelliten-Anwendungen über ein "App-Store-Konzept" zu betreiben: Kunden könnten für einen vorgegebenen Zeitraum mobilen Zugriff auf Satelliten wie HAMMER erhalten und ihn für ihre Anwendungsfälle einsetzen. Die Kombination aus schnellem Zugriff und KI-gestützter Software könnte somit neue kommerzielle Anwendungen in der Raumfahrt den Weg ebnen.
URL dieses Artikels:
https://www.heise.de/-9654617
Links in diesem Artikel:
[1] https://www.open-cosmos.com/news/open-cosmos-launches-groundbreaking-hyperspectral-hammer-satellite
[2] https://www.open-cosmos.com/open-constellation
[3] https://ubotica.com/cognisat-6-is-one-of-the-most-intelligent-satellites-sent-into-space-an-interview-with-sean-mitchell-co-founder-of-ubotica/
[4] https://www.researchgate.net/publication/376352496_AUTONOMOUS_OPERATIONAL_SCHEDULING_ON_COGNISAT-6_BASED_ON_ONBOARD_ARTIFICIAL_INTELLIGENCE#pf2
[5] https://www.instagram.com/technologyreview_de/
[6] mailto:jle@heise.de
Copyright © 2024 Heise Medien
Mit heise+ lesen Sie alle Inhalte auf heise online. Zusätzlich zu unseren Magazin-Inhalten erhalten Sie damit weitere exklusive Tests, Ratgeber und Hintergründe. Wählen Sie jetzt Ihr passendes Paket und sparen im Jahresabo dauerhaft 20 %.
(Bild: Miha Creative/ Shutterstock.com)
Die the native web GmbH veranstaltet ab kommender Woche insgesamt zwölf Webinare zu den Themen Go, TypeScript, skalierbare APIs und moderne, native Web-UIs.
Ab kommender Woche veranstaltet die the native web GmbH insgesamt zwölf Webinare aus den Themenbereichen Go, TypeScript, skalierbare APIs und moderne Web-UIs.
Die Webinare finden ab dem 11. März jeweils montags, mittwochs und freitags von 9:00 Uhr bis 12:30 Uhr statt und vermitteln die aktuellen Themen der zeitgemäßen Softwareentwicklung auf anschauliche und verständliche Art in Theorie und Praxis. Die Themenauswahl umfasst sowohl grundlegende als auch fortgeschrittene Themen.
Zeitgemäße Entwicklung mit Go (Details anzeigen [1])
TypeScript im Enterprise-Einsatz (Details anzeigen [2])
Moderne und skalierbare APIs (Details anzeigen [3])
Zukunftsfähige Web-UIs gestalten (Details anzeigen [4])
Die Webinare werden als Livestream durchgeführt, sodass man einfach und bequem teilnehmen kann – ganz gleich, ob von zu Hause oder aus dem Büro. Für Fragen steht ein Chat zur Verfügung.
Der Preis beträgt 179 Euro pro Webinar. Wer drei Webinare aus einem Themenbereich als Paket bucht, erhält über 25 % Rabatt gegenüber der Einzelbuchung, der Preis beträgt dann 399 Euro. Darüber hinaus gelten noch einmal günstigere Konditionen für Teams. Alle Preise verstehen sich jeweils zuzüglich 19% Umsatzsteuer.
Im Preis enthalten ist neben der Teilnahme am Livestream auch der Zugriff auf die Aufzeichnung des Webinars und die Codebeispiele.
Alle weitergehenden Informationen und eine Buchungsmöglichkeit finden sich auf der Webseite der tech:lounge Masterclass [5].
URL dieses Artikels:
https://www.heise.de/-9646306
Links in diesem Artikel:
[1] https://www.thenativeweb.io/techlounge/modern-development-with-go
[2] https://www.thenativeweb.io/techlounge/typescript-in-enterprise-projects
[3] https://www.thenativeweb.io/techlounge/modern-and-scalable-apis
[4] https://www.thenativeweb.io/techlounge/future-proof-web-uis
[5] https://www.thenativeweb.io/techlounge/masterclass
[6] mailto:rme@ix.de
Copyright © 2024 Heise Medien