FreshRSS

🔒
❌ Über FreshRSS
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
Vor vorgesternIhre RSS-Feeds

Neu in .NET 8.0 [15]: Geschlüsselte Dienste bei der Dependency Injection

Von Dr. Holger Schwichtenberg
Der Dependency-Injection-Container unterstützt nun auch die Angabe von Schlüssel zur Unterscheidung von Instanzen.
  • 22. März 2024 um 14:39

Drei Fragen und Antworten: Was Sie beim KI-Betrieb im eigenen RZ beachten müssen

Von Heise
Roboter mit Sprechblase mit drei Punkten.

(Bild: iX)

Datenschutz, keine teuren Cloud-Dienste, Unabhängigkeit bei den Modellen – für die KI aus dem eigenen RZ gibt es gute Gründe. Aber einfach ist das nicht.

Für die meisten Unternehmen führt aktuell kein Weg an KI-Diensten vorbei. Doch die Herausforderungen sind groß: Sich einfach KI-Assistenten von Cloud-Providern einzukaufen, ist selten der beste Weg – gerade beim Thema Datenschutz, aber auch aufgrund der potenziell hohen Kosten. Also einfach ein paar Nvidia-GPUs in den Server stecken und loslegen? Das genügt selten, erklärt Daniel Menzel im Interview zum Titelthema der neuen iX 4/2024 [1]: KI im eigenen Rechenzentrum.

Fürs Machine Learning braucht es einfach mehr Rechenpower – so die gängige Annahme. Warum ist das falsch?

Das hat zwei Gründe: Zum einen wird Machine Learning (mindestens im Training) nur mit GPUs wirklich effizient. Klassische Server mit größeren CPUs auszustatten, wird also für wirklich performante ML-Infrastrukturen nicht helfen. Zum anderen benötigt Machine Learning ein sehr durchsatzstarkes und latenzarmes Netzwerk auf Ethernet- oder gar InfiniBand-Basis und regelmäßig auch einen sehr leistungsstarken zentralen Storage. Der klassische FibreChannel-SAN ist hierfür in der Regel nicht annähernd ausreichend.

Viel lernen können Unternehmen vom HPC-Betrieb. Warum ist das so?

Das, was heute HPC ist, wird morgen schon Unternehmens-IT. Hochdichte Systeme, 100, 200 und 400G, RDMA – all diese Technologien wurden quasi zuerst im HPC und ML "erprobt", bevor sie in die Enterprise-IT kamen. Derzeit sehen wir diesen Übergang ganz stark in der Wasserkühlung: Vor gut 5 Jahren ein Nischenthema, spricht da heute fast jeder drüber, der mehr als zwei Racks im Keller stehen hat.

Welche Komponenten ihrer Infrastruktur vergessen IT-Abteilungen denn besonders gerne?

Definitiv das Netzwerk. Das muss nicht nur durchsatzstark, sondern im Jahr 2024 insbesondere latenzarm sein. Da heute in vielen, vor allem cloud-ähnlichen Infrastrukturen der Ost-West-Traffic durch Storage-Synchronisation, Microservices und allgemein Machinen-zu-Maschinen-Kommunikation oft schon größer als der Nord-Süd-Traffic ist, sollte man sich bei einem Redesign oder Update auch Gedanken machen, von klassischen Three-Tier- zu modernen Spine-Leaf-Architekturen zu wechseln.

Hinzu kommt: Einen ML-Storage, der für jedes Szenario passt, gibt es nicht. Die Daten liegen mal strukturiert, mal unstrukturiert, mal als Dateien, mal als Datenbanken vor. Bevor ein Storage designt werden soll, muss also mit den Anwendern geklärt werden, wie ihre Daten aussehen. Ein paar ganz grundlegende Regeln greifen aber sehr häufig. Zuallererst: "Viel hilft viel". Die Trainings- und Testdaten können durchaus in den oberen Tera- oder gar Petabytebereich gehen. Dann muss ML-Storage sehr performant, also latenzarm sein. Auch wird sehr häufig weitaus mehr gelesen als geschrieben.

Herr Menzel, vielen Dank für die Antworten! Alle Informationen dazu, was sich vom HPC-Betrieb [2] alles fürs maschinelle Lernen im eigenen Rechenzentrum lernen lässt, findet sich in der neuen iX 4/2024 [3]. Das Aprilheft zeigt außerdem, wie Unternehmen ihr Netzwerk [4] und ihren Storage [5] korrekt für eigene KI-Dienste aufsetzen.

In der Serie "Drei Fragen und Antworten" will die iX die heutigen Herausforderungen der IT auf den Punkt bringen – egal ob es sich um den Blick des Anwenders vorm PC, die Sicht des Managers oder den Alltag eines Administrators handelt. Haben Sie Anregungen aus Ihrer tagtäglichen Praxis oder der Ihrer Nutzer? Wessen Tipps zu welchem Thema würden Sie gerne kurz und knackig lesen? Dann schreiben Sie uns gerne [6] oder hinterlassen Sie einen Kommentar im Forum.


URL dieses Artikels:
https://www.heise.de/-9662893

Links in diesem Artikel:
[1] https://shop.heise.de/ix-04-2024/print
[2] https://www.heise.de/hintergrund/Von-High-Performance-Computing-lernen-Machine-Learning-im-Rechenzentrum-9652209.html
[3] https://shop.heise.de/ix-04-2024/print
[4] https://www.heise.de/hintergrund/IT-Infrastruktur-im-RZ-Netze-modernisieren-nicht-nur-fuer-ML-9652147.html
[5] https://www.heise.de/hintergrund/Das-richtige-Storage-Design-fuer-Machine-Learning-waehlen-9652562.html
[6] mailto:fo@ix.de
[7] https://www.heise.de/ix/
[8] mailto:fo@heise.de

Copyright © 2024 Heise Medien

Adblock test (Why?)

  • 22. März 2024 um 10:29

Wie in "3 Body Problem": Was tun, wenn Aliens Kontakt aufnehmen?

Von Dr. Wolfgang Stieler
Back,View,Of,Astronaut,Wearing,Space,Suit,Walking,On,A

(Bild: Supamotion/Shutterstock.com)

In der Netflix-Serie geht es um Kontakt zu Außerirdischen. In der Realität erforscht der "SETI Post Detection Hub", was dann zu tun wäre.

Die Trisolaris-Triologie von Chinas bekanntem Science-Fiction-Autor Cixin Liu gibt es nun als Serie bei Netflix anzusehen. Unter dem Titel "3 Body Problem" deckt in ihrer ersten achtteiligen Staffel etwa das erste Buch ab [1]. Darin gelingt es einer Astrophysikerin zu Zeiten der Chinesischen Kulturrevolution, mit einem Radioteleskop stärker ins All zu funken als je ein Mensch zuvor und – sei erhält eine Antwort.

Mit der Frage aus dem fiktiven Stoff, setzt sich auch die reale Wissenschaft auseinander: Wie soll die Menschheit reagieren, wenn man herausfindet, dass wir nicht allein sind? Das ist der Kern der Aufgabe des "SETI Post Detection Hub" [2]. Die Forschungseinrichtung hat im Jahr 2022 ihre Arbeit aufgenommen [3] und ist seitdem erstmals eine permanente Institution, um Protokolle und Verfahren zu entwickeln, falls uns außerirdische Signale jemals erreichen sollten. Worin genau die Arbeit des Hubs besteht, erklärt der Leiter John Elliott im Interview mit MIT Technology Review.

John Elliott, Sie haben ein Seti Post Detection Hub eingerichtet. Was macht er?

Um die Frage zu beantworten, muss ich etwas ausholen. Ich bin seit 25 Jahren am SETI-Projekt (Search für Extraterrestrial Intelligence) beteiligt. Meine Hauptforschungsarbeit besteht darin, zu erkennen, welche Art von Signal wir empfangen könnten, und was wir in der Struktur, dem Inhalt des Signals suchen müssen, um dann die Entschlüsselung vorzunehmen.

Im Zuge dieser Arbeit wurde mir klar: Es gab keine Vorbereitung, keinen Plan im Vorfeld dieses Ereignisses, was wir eigentlich tun sollten, wenn wir wirklich etwas finden. Wie sollten wir damit umgehen?

John Elliott forscht gemeinsam mit Kollegen an der Frage, was genau zu tun ist, wenn wir tatsächlich Signale von Aliens empfangen.

(Bild: University of St Andrews)

Ich habe erkannt, dass wir eine Strategie ausarbeiten müssen. Alles, was wir bisher hatten, ist die Idee der Transparenz. Wenn wir ein Signal erhalten, ist es die Pflicht der Forschergemeinschaft, es allen mitzuteilen und nicht geheim zu halten.

Also habe ich um 2008 herum angefangen, Papiere über eine Strategie zur Entschlüsselung nach der Entdeckung eines solchen Signals zu schreiben, und nach einigen Gesprächen wurde mir dann klar, dass ich diese Initiative selbst starten muss. Das ist ein bisschen, wie bei den Pfadfindern: Sei allzeit bereit.

Das ist der Grund, warum die Organisation gegründet wurde, weil wir einen Plan brauchen. Andernfalls hätten wir einfach weitergemacht und uns nur auf die Suche konzentriert und unsere verbesserten Fähigkeiten des Hinschauens und Zuhörens da draußen entwickelt, ohne einen Plan zu haben, wie wir es der Menschheit mit all ihren dynamischen Veränderungen in der Technologie wie den sozialen Medien mitteilen würden. Zum Glück stieg das Interesse an dieser Arbeit mit der Entdeckung von immer mehr Exoplaneten rapide an.

Interdipisziplinäres Team

Was sagen denn andere Wissenschaftler dazu?

So ziemlich das Gleiche wie ich: dass es da draußen Leben geben muss. Wir sprechen hier von Wissenschaftlern aus allen Bereichen des Lebens. Das Fachwissen deckt über 40 verschiedene Disziplinen ab. Das derzeitige Team besteht aus 36 Personen. Es handelt sich um Experten, die weltweit verteilt sind, von Athen bis Kalifornien, von Kanada bis Australien, und überall dazwischen – einige auch in Deutschland.

Aber es gibt auch viele Facetten des Problems: Wir sprechen über Weltraumrecht, Ökonomie, Politik bis hin zu der Frage, wie solch eine Entdeckung unser tägliches Leben beeinflusst.

Wie wird die Arbeit finanziert?

Im Moment sind alle, wie gute altmodische Akademiker, mit Enthusiasmus dabei und arbeiten ohne Bezahlung. Aber wir haben uns um Fördergelder beworben und drücken die Daumen, dass das klappt.

Wie kann Kommunikation mit Aliens überhaupt funktionieren? Was ist die gemeinsame Basis für die Kommunikation mit etwas völlig Fremdem?

Das Universum um uns herum. Wenn Sie plötzlich mitten im Amazonas-Regenwald auf einen verschollenen, indigenen Stamm stoßen, hätten Sie den Wald als gemeinsamen Bezugsrahmen um sich herum. Sie würden nicht anfangen, über Computer zu reden. Man würde also etwas aufgreifen, auf das man zeigen könnte, sagen wir einen Baum, und diesen als gemeinsamen Bezugsrahmen verwenden. So kann man einen Dialog beginnen.

Inwieweit wir den Inhalt verstehen können, ist natürlich eine andere Sache. Es liegt in der Natur der Kommunikation, dass es eine willkürliche Paarung zwischen dem von Ihnen geschaffenen Symbol und der dahinter stehenden Bedeutung gibt. Wenn man also nicht etwas hat, das tatsächlich darauf hindeutet, dass man wie der Anthropologen mitten im Amur-Regenwald arbeiten kann, dann können wir nur von den Strukturen ausgehen, von der Syntax.

Wahrscheinlich würden wir Bilder verwenden, um metaphorisch auf "etwas zu zeigen", und von dort aus weitergehen. Wir haben Bilder verwendet, in der Arecibo-Botschaft von 1974 [12]. Die ist aber leider ziemlich verwirrend in ihrer Zusammensetzung. Wir müssen sehr klar in der inhaltlichen Struktur solch einer Botschaft sein. Was wir sagen, ist eine Frage, die ich nicht in die Hände allein von uns Forschern legen möchte. Wenn wir für die gesamte Menschheit kommunizieren wollen, dann ist das der Punkt, an dem eine Organisation wie die UNO involviert sein sollte.

Sagten Sie die UNO?

Zu unseren Mitgliedern gehören bereits Leute, die mit der UNO, der Europäischen Weltraumorganisation, der NASA und all diesen wichtigen Organisationen in Verbindung stehen, so dass wir bereits Gespräche mit diesen Parteien führen. All dies ist aus meinem jahrzehntelangen Wissen innerhalb der SETI-Gemeinschaft und der Erkenntnis, was benötigt wird, entstanden und wurde von mir vorangetrieben.

"Verschwendung von Chancen, einfach zu schweigen"

Nun wäre es ja durchaus möglich, dass es dort draußen zwar intelligentes Leben gibt, aber jeder – wenn man das so sagen kann – schweigt, weil die anderen vielleicht technisch überlegen, aber nicht freundlich gesinnt sind. Was denken Sie darüber? Und ist dieses Dilemma auf irgendeine Weise zu lösen?

Das Dilemma, von dem Sie sprechen, ist eine Diskussion, die wir in der SETI-Gemeinschaft schon oft geführt haben. Und ich würde sagen, dass die Meinungen am Ende jeder Diskussion, wie auch am Anfang 50 zu 50 geteilt sind.

Natürlich sehen wir das Potenzial für Feindseligkeit – schon aufgrund unserer eigenen Geschichte. Aber viele von uns, wie ich selbst, sind der Meinung, dass es eine Verschwendung von Chancen wäre, einfach zu schweigen.

Es würde eine Menge Zeit und Energie, Ressourcen, benötigen, um sich die Mühe zu machen, uns zu besuchen. Ich sage nicht, dass die Wahrscheinlichkeit dafür nicht gleich Null ist, aber ich würde sagen, dass sie ziemlich nahe dran ist – das ist natürlich nur meine eigene Meinung. Ich glaube, dass die Lichtgeschwindigkeit eine Grenze ist. Wir werden keine Star Trek-Technologie [13] haben. Ich glaube nicht, dass wir die Lichtgeschwindigkeit mit irgendetwas brechen werden, das größer ist als ein kleines, masseloses Elementarteilchen, wie es in der Natur vorkommt.

Wir können ziemlich sicher sein, dass, wenn es da draußen etwas gibt, ist es nicht vor unserer Haustür. Aber selbst das wäre kein unbedeutendes Unterfangen. Es würde ungefähr 70.000 Jahre dauern, um zu unserem nächsten anderen Stern zu reisen.

Natürlich kann ich mich irren, aber ich denke, die Wahrscheinlichkeit dafür ist auf meiner Seite. Und um noch einmal darauf zurückzukommen, was für eine Verschwendung es wäre, nicht zu erkennen, dass es Intelligenzen da draußen gibt und hoffentlich von ihnen zu lernen. Denn es ist genauso wahrscheinlich oder wahrscheinlicher, dass sie gutartig und einfach nur neugierig sind wie wir. Zudem glaube ich, dass ein längeres Überleben und eine höhere Entwicklung und Intelligenz die Wahrscheinlichkeit dafür erhöhen würde.

"Transparenz muss sofort gegeben sein"

Gibt es ein Protokoll, das sicherstellt, dass diese Transparenz, von der Sie vorhin sprachen, auch wirklich stattfindet?

Nun, das ursprüngliche SETI-Protokoll, das es seit 1989 gibt, besagt, dass die Transparenz sofort gegeben sein muss. Und die Wahrscheinlichkeit ist groß, dass nicht nur eine einzige Radioantenne dieses Signal empfängt. Ein zweites Teleskop wird versuchen, das Signal zu empfangen werden, damit man triangulieren kann, woher es kommt.

Es wird vielleicht unterschiedliche politische Absichten geben, wie damit umzugehen ist. Aber die Regierungen werden erst wissen, dass es Kontakt gibt, wenn die Entdecker, die Wissenschaftler, es bekannt geben. Ich denke also, dass wir einen Vorsprung haben werden, was Transparenz angeht. Aber wir müssen einen Plan haben, das tatsächlich auf die richtige Art und Weise zu kommunizieren. Die Art und Weise, wie wir es der Menschheit mitteilen, ist wichtig.


URL dieses Artikels:
https://www.heise.de/-9198341

Links in diesem Artikel:
[1] https://www.heise.de/hintergrund/3-Body-Problem-Wenn-das-Universum-zwinkert-verheisst-das-nichts-Gutes-9659362.html
[2] https://seti.wp.st-andrews.ac.uk/
[3] https://www.heise.de/news/Suche-nach-ausserirdischer-Intelligenz-Forschungsgruppe-soll-Antwort-vorbereiten-7334459.html
[4] https://www.heise.de/hintergrund/Mobilitaet-ohne-Auto-So-klappt-die-Verkehrswende-9198216.html
[5] https://www.heise.de/hintergrund/Ampeln-und-Co-Wie-technische-Regelwerke-die-Verkehrsplanung-beeinflussen-9198220.html
[6] https://www.heise.de/hintergrund/Verkehrsdaten-Wofuer-sich-Daten-ueber-unsere-Mobilitaet-nutzen-lassen-9198233.html
[7] https://www.heise.de/hintergrund/Verkehrsprofessor-Das-Rad-steht-fuer-eine-nahezu-perfekte-Sache-9198229.html
[8] https://www.heise.de/select/tr/2023/5/2235413395902260809
[9] https://www.heise.de/select/tr/2023/5/2313512561507330234
[10] https://www.heise.de/select/tr/2023/5/2313512532637048519
[11] https://shop.heise.de/technology-review-05-2023/Print?wt_mc=intern.shop.shop.tr_2305.dos.textlink.textlink
[12] https://de.wikipedia.org/wiki/Arecibo-Botschaft
[13] https://www.heise.de/hintergrund/Wie-ein-Warp-Drive-moeglich-waere-5039496.html
[14] https://www.instagram.com/technologyreview_de/
[15] mailto:wst@technology-review.de

Copyright © 2023 Heise Medien

Adblock test (Why?)

  • 22. März 2024 um 10:24

Hyperloop ohne Röhre: Wie Magnetschwebebahnen auf normalen Gleisen schweben

Von Gregor Honsel

Der Schlitten von IronLev.

(Bild: IronLev)

Zwei Start-ups wollen Magnetschwebebahnen auf normale Gleise bringen. Anders als bei Hyperloop-Projekten lassen sie die Vakuumröhren einfach weg.

Das zentrale Problem bei Magnetschwebebahnen [1] ist, dass sie aufwendige eigene Trassen brauchen. Zwei Start-ups entwickeln nun Lösungen, Magnetschwebetechnik auch auf normalen Gleisen einzusetzen. Beide haben sich ursprünglich an Hyperloop-Projekten beteiligt und sich irgendwann entschieden, die Vakuumröhre einfach wegzulassen. Damit enden die Gemeinsamkeiten der beiden aber auch schon.

Das schlichtere Verfahren verfolgt das italienische Start-up IronLev [2]. Es lässt seine Fahrzeuge auf Permanent-Magneten schweben, welche die Schienen wie ein umgekehrtes U umschließen. Auf einer zwei Kilometer langen Versuchsstrecke in Venetien hat es kürzlich einen Versuchsschlitten [3] auf 70 km/h beschleunigt.

Zumindest für das Schweben ist dabei keine Energie nötig. Für den Antrieb natürlich schon. Wie dieser genau funktioniert, erklärt IronLev nicht. Ein Foto (siehe unten) des unverkleideten Schlittens gibt aber einen Hinweis: E-Motoren treiben ihn offenbar mit Reibrädern an den Innenseiten der Schiene ab. Der Strom stammt wohl aus Akkus.

Zwei Männer halten den Prototypen eines unverkleideten Schlittens in die Höhe

(Bild: IronLev)

Schweben ab 70 km/h

Aufwendiger ist das Verfahren des polnisch-schweizerischen Unternehmens Nevomo [4]. Den Antrieb übernimmt eine Magnetspule zwischen den Schienen, in Kombination mit Permanentmagneten in den Fahrzeugen. Bei niedrigen Geschwindigkeiten rollen die Fahrzeuge auf ganz normalen Rädern. Mit zunehmendem Tempo bauen Permanentmagnete einen Wirbelstrom auf, der ein Magnetfeld erzeugt, das ab etwa 70 km/h das Fahrzeug zum Schweben bringt. Getestet wurde das Ganze im vergangenen September auf einer 700 Meter langen Versuchsstrecke im Südosten Polens [5]. Dabei erreichte das zwei Tonnen schwere Versuchsfahrzeug eine Geschwindigkeit von 135 km/h. Das Ziel für den kommerziellen Einsatz liegt bei 550 km/h.

Beide Ansätze klingen technisch elegant. Doch welche Probleme genau lösen sie? Dadurch, dass sie auf Vakuumröhren verzichten, halten sich die Start-ups zwar eine Menge technischer Komplexität vom Hals. Aber dafür entgeht ihnen auch der eigentliche Vorteil des Hyperloops [7]: der wegfallende Luftwiderstand. Die Magnetschwebetechnik senkt zwar den Rollwiderstand, aber der ist bei einem Rad-Schiene-System ohnehin recht gering. Der Luftwiderstand hingegen wächst quadratisch mit der Geschwindigkeit. Der Nutzen für die Energiebilanz ist also, gerade im Highspeed-Bereich, begrenzt. Allerdings sind schwebende Züge bequemer, leiser und verschleißärmer unterwegs – keine ganz unwesentlichen Argumente. Ob die Systeme insgesamt wirklich nachhaltig sind, hängt auch von der benötigten Menge an Permanentmagneten ab. Sie brauchen zwar keinen Strom, aber wertvolle Seltenerdmetalle [8].

Integration ins Bahnnetz

Bleibt die Frage nach der Integration in das bestehende Bahnnetz. Auf den ersten Blick hat das System von IronLev hier die besseren Karten, denn es ist nicht auf die teure Nachrüstung von Antriebsspulen angewiesen. Diese soll laut Nevomo etwa fünf Millionen Euro pro Kilometer kosten.

Nevomo kann hingegen damit punkten, dass sich die Züge, wenn sie ihr Tempo vorübergehend senken, wie normale Schienenfahrzeuge verhalten. "Ein Zug startet immer auf Rädern und endet immer auf Rädern, wir können über jede Weiche und in jeden Bahnhof fahren", sagte Stefan Kirch, Chief Commercial Officer & Co-Founder, im Deutschlandfunk [9]. Ob die Reibrollen von IronLev durch Weichen passen, oder ob das Start-up für kommerzielle Systeme eine andere Antriebstechnik im Blick hat, ist offen. IronLev hat bis Redaktionsschluss nicht auf eine entsprechende Anfrage reagiert.

Arndt Stefan, Professor für elektrische Bahnen an der TU Dresden, sieht noch ein weiteres Problem bei der Integration der Schwebetechnik ins bestehende Bahnnetz: "Die Eisenbahn strengt sich im Moment ja an, ihre Trassen so dicht zu besetzen, dass da eigentlich nichts mehr dazwischen passt. Das ist ein Zielkonflikt", sagt er gegenüber dem Deutschlandfunk.

Derzeit sucht Nevomo nach einer längeren Versuchsstrecke. Es ist nach eigenen Angaben bereits mit französischen und italienischen Bahngesellschaften im Gespräch. IronLev will als nächsten Schritt ein 20-Tonnen-Fahrzeug auf 200 km/h beschleunigen. Zudem entwickelt es einen Antrieb für selbstfahrende Güterwaggons [10] (auf Rädern, ohne Schwebekufen). Er soll in diesem Jahr marktreif sein. Von IronLev sind die ersten Produkte bereits erhältlich – als Schienen für Schiebefenster [11].


URL dieses Artikels:
https://www.heise.de/-9661973

Links in diesem Artikel:
[1] https://www.heise.de/select/tr/2024/1/2330707534533514632
[2] https://www.ironlev.com/transport
[3] https://t3n.de/news/diese-magnetschwebebahn-faehrt-auf-herkoemmlichen-bahnschienen-1613567/
[4] https://www.nevomo.tech/en/
[5] https://www.nevomo.tech/en/nevomo-performs-the-worlds-first-ever-successful-tests-to-confirm-trains-ability-to-levitate-on-existing-railway-infrastructure/
[6] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[7] https://www.heise.de/news/Hochgeschwindigkeitstransport-Hyperloop-One-hat-wohl-den-Betrieb-eingestellt-9581045.html
[8] https://www.heise.de/hintergrund/Seltene-Erden-Ueber-die-Recyclingquote-von-einem-Prozent-hinauskommen-9229150.html
[9] https://www.deutschlandfunk.de/startup-projekt-in-polen-magnetschwebebahn-auf-klassischen-gleisen-dlf-111e3132-100.html
[10] https://www.nevomo.tech/en/nevomo-engage-pj-motion-and-t%C3%BCv-rheinland-to-homologate-and-assess-magrail-booster-the-worlds-first-retrofit-solution-for-autonomous-movement-of-rolling-stock/
[11] https://www.ironlev.com/architecture
[12] https://www.instagram.com/technologyreview_de/
[13] mailto:grh@technology-review.de

Copyright © 2024 Heise Medien

Adblock test (Why?)

  • 22. März 2024 um 07:43

4,25 Millionen Dollar für das neueste teuerste Medikament der Welt

Von Antonio Regalado
Tropf

(Bild: Komsan Loonprom/Shutterstock.com)

Die Gentherapie Lenmeldy richtet sich gegen eine seltene Nervenkrankheit bei Kleinkindern. Gerade die geringe Patientenzahl ist die Krux für die Vermarktung.

Es gibt ein neues teuerstes Medikament aller Zeiten – eine Gentherapie, die so viel kostet wie ein Haus in Brooklyn oder eine Villa in Miami und mehr, als ein durchschnittlicher Mensch im Laufe seines Lebens verdienen wird.

Das Therapie-Medikament nennt sich Lenmeldy und wurde für die Behandlung der metachromatischne Leukodystrophie (MLD) entwickelt. Am Montag erhielt das Medikament in den USA die Zulassung. Hersteller Orchard Therapeutics sagt, dass die Kosten von 4,25 Millionen Dollar den Wert der Behandlung für Patienten und Familien widerspiegeln.

Von der Nervenkrankheit MLD sind Kleinkinder betroffen. Die jungen Patienten verlieren die Fähigkeit zu sprechen und zu gehen. Etwa die Hälfte stirbt, die anderen leben in einem vegetativen Zustand weiter, was für die Familien unerträglich ist.

MLD gehört zu den seltenen Krankheiten: nur etwa 40 Kinder pro Jahr erkranken daran in den USA. Medikamente, die sich gegen diese Krankheiten richten, werden als Orphan Drugs bezeichnet. Die extreme Seltenheit solcher Krankheiten ist der Grund für die explodierenden Preise für neue Gentherapien. Man bedenke nur die wirtschaftlichen Aspekte: Orchard beschäftigt 160 Mitarbeiter, viel mehr als die Zahl der Kinder, die sie über mehrere Jahre hinweg behandeln können.

Marktchancen für die teuren Gentherapien

Folglich könnte selbst bei diesem Preis der Verkauf der neuesten DNA-Behandlung ein wackeliges Geschäft sein. "Gentherapien haben sich auf dem Markt schwergetan – und ich würde nicht erwarten, dass Lenmeldy sich diesem Trend widersetzt", sagt Maxx Chatsko, Gründer von Solt DB, das Daten über Biotech-Produkte sammelt. Wenn man so will, ist es ein Fluch, das teuerste Medikament der Welt zu sein.

Die MLD-Therapie wurde 2021 unter den Namen "Libmeldy" in Europa zugelassen. [1] Der Preis ist mit 2,8 Millionen Euro etwas niedriger ist. Chatsko weist aber daraufhin, dass Orchard während des größten Teils des letzten Jahres nur 12,7 Millionen Dollar aus Produktverkäufen erwirtschaftete. Demnach kann man die Zahl der Kinder, die es bekommen haben, an den Händen abzählen.

Die Gentherapie fügt den Knochenmarkzellen der Kinder ein fehlendes Gen hinzu, wodurch die Ursache der Krankheit im Gehirn beseitigt wird. Viele der Kinder, die im Rahmen der 2010 begonnenen Versuche behandelt wurden, haben sich zu ganz normalen Menschen entwickelt.

Die Kinder können meist wieder laufen und sind kognitiv fit. "Die Kinder, die wir behandeln, gehen zur Schule, treiben Sport und können ihre Geschichten erzählen", sagt Leslie Meltzer, die leitende Ärztin von Orchard. Ohne die Behandlung wäre das nicht möglich.

Auch unabhängige Gruppen sind der Meinung, dass das Medikament kosteneffizient sein könnte. Eine davon, das Institute for Clinical and Economic Review, das den Wert von Arzneimitteln bewertet, erklärte im vergangenen September, dass sich die MLD-Gentherapie ihren Modellen [2] zufolge bei Kosten zwischen 2,3 und 3,9 Millionen Dollar lohnen würde. Es lässt sich jedoch nicht leugnen, dass überhöhte Preise ein Zeichen dafür sein können, dass eine Behandlung wirtschaftlich nicht tragfähig ist.

Bisherige Rekordhalter

Ein früherer Titelhalter für das teuerste Medikament, die Gentherapie Glybera [3], wurde nur einmal gekauft [4], bevor sie vom Markt genommen wurde. Es wirkte nicht gut genug, um den Preis von 1 Million Dollar [5] zu rechtfertigen, der es damals zum Preisführer machte.

Für 2,125 Millionen hatte das Unternehmen Novartis die Gentherapie Zolgensma am Start [6], für das es 2019 die FDA-Zulassung erhielt. Seit Mitte 2020 ist es auch in Deutschland auf dem Markt. Es handelt sich um ein Mittel gegen eine tödliche Muskelschwäche bei Kindern (spinale Muskelatrophie, Typ 1).

Hemgenix – ebenfalls eine Gentherapie – löste Zolgensma ab. Es kostet 3,5 Millionen Dollar [7] und richtete sich gegen die genetisch bedingte Blutgerinnungsstörung Hämophilie B. Mit solchen Behandlungen sollten Milliardenumsätze erzielt werden, doch laut Presseberichten [8] werden sie nicht annähernd so gut angenommen, wie man erwarten würde.

Orchard selbst hat eine andere DNA-Behandlung, Strimvelis [9] mit einem Kostenpunkt von knapp 600.000 Euro, aufgegeben, bei der es sich um ein vollwertiges Heilmittel gegen eine Art von Immunschwäche handelt. Das Unternehmen war Eigentümer der Gentherapie und hatte sie 2016 sogar in Europa zugelassen. Das Problem waren sowohl zu wenige Patienten als auch das Vorhandensein einer alternativen Behandlung. Nicht einmal eine Geld-zurück-Garantie konnte Strimvelis [10] retten, so dass Orchard es im Jahr 2022 einstellte. 2023 übernahm der japanische Arzneimittelhersteller Kyowa Kirin die Firma Orchard [11], zu dem sie bis heute gehört.

Es kann also sein, dass Gentherapien, obwohl sie in Versuchen erfolgreich sind, das Spiel verlieren. Im Fall von Lenmeldy wird es entscheidend darauf ankommen, die Krankheit frühzeitig zu erkennen. Denn wenn Kinder erst einmal Symptome zeigen, kann es schon zu spät sein. Bislang werden viele Patienten nur entdeckt, weil ein älteres Geschwisterkind die Erbkrankheit bereits hat. [12]

Erweiterung der Neugeborenen-Screenings

Orchard hofft, dieses Problem lösen zu können, indem MLD in die Liste der Krankheiten aufgenommen wird, auf die bei der Geburt automatisch getestet wird. Das würde den Markt sichern und viele weitere Kinder retten. Eine Entscheidung über die Tests, so die Befürworter, könnte nach einer Sitzung des US-Regierungsausschusses für Neugeborenen-Screening im Mai fallen. [13]

Zu den Befürwortern der Behandlung gehört Amy Price, eine Verfechterin der Behandlung seltener Krankheiten, die ihr eigenes Beratungsunternehmen Rarralel in Denver betreibt. Price hatte drei Kinder mit MLD – eines starb, aber zwei wurden durch die MLD-Gentherapie gerettet, die sie ab 2011 erhielten, als die Behandlung noch in der Testphase war.

Price sagt, ihre beiden behandelten Kinder, die jetzt im Teenageralter sind, "sind ganz normal, absolut durchschnittlich". Und das ist den Preis wert, sagt sie. "Die wirtschaftliche Belastung eines unbehandelten Kindes übersteigt alle bisherigen Gentherapiepreise", sagt sie. "Diese Realität ist schwer zu verstehen, wenn die Leute nur auf den Preis reagieren wollen."


URL dieses Artikels:
https://www.heise.de/-9661865

Links in diesem Artikel:
[1] https://www.deutsche-apotheker-zeitung.de/news/artikel/2021/11/11/g-ba-erkennt-erheblichen-zusatznutzen-fuer-libmeldy
[2] https://icer.org/news-insights/press-releases/icer-publishes-evidence-report-on-gene-therapy-for-metachromatic-leukodystrophy/?gad_source=1&gclid=CjwKCAjwkuqvBhAQEiwA65XxQAG1cT-Q-9559MUUl_ZnQVJ_qPb2Et3YYVxoUX9-d4_1X09pU3vVVBoCeX4QAvD_BwE
[3] https://www.heise.de/hintergrund/Biohacker-wollen-zurueckgezogene-Gentherapie-nachbauen-4553568.html
[4] https://www.technologyreview.com/2016/05/04/245988/the-worlds-most-expensive-medicine-is-a-bust/
[5] https://www.wiwo.de/technologie/forschung/gen-therapie-erobert-deutschland-die-1-million-euro-spritze/11499176.html
[6] https://www.heise.de/hintergrund/Erster-Blockbuster-Kandidat-bei-Gentherapien-4432287.html
[7] https://www.spektrum.de/news/haemophilie-das-3-5-millionen-dollar-medikament/2091675
[8] https://www.statnews.com/2024/03/13/hemophilia-treatment-gene-therapy-use-of-hemgenix-roctavian/
[9] https://www.heise.de/hintergrund/Taugen-Gentherapien-fuer-den-Markt-3706011.html
[10] https://www.heise.de/news/Gentherapie-Geld-zurueck-Garantie-bei-erfolgloser-Behandlung-3465592.html
[11] https://www.kyowakirin.com/media_center/news_releases/2024/pdf/e20240124_02.pdf
[12] https://www.technologyreview.com/2016/07/20/158758/gene-therapy-trial-wrenches-families-as-one-childs-death-saves-another/
[13] https://www.hrsa.gov/advisory-committees/heritable-disorders
[14] https://www.instagram.com/technologyreview_de/
[15] mailto:jle@heise.de

Copyright © 2024 Heise Medien

Adblock test (Why?)

  • 22. März 2024 um 07:00

United Internet: Netzaufbau drückt den Gewinn

Von Heise
Bürogebäude - die Niederlassung der United-Internet-Tochter 1&1 in Montabaur

Niederlassung der United-Internet-Tochter 1&1 in Montabaur

(Bild: United Internet)

Mit soliden Zahlen schließt United Internet das Geschäftsjahr 2023 ab. Der Aufbau des eigenen Mobilfunknetzes kostet Geld und dämpft die Euphorie an der Börse.

Die United Internet AG hat im abgelaufenen Geschäftsjahr 2023 ihren Umsatz gesteigert sowie zahlreiche neue Kunden gewinnen können. Die Investitionen für den Aufbau eines eigenen Mobilfunknetzes senken aber das Ergebnis – und offenbar die Laune an der Börse.

Im Gesamtjahr 2023 konnte United Internet den Umsatz von 5,9 Milliarden Euro im Vorjahr um fünf Prozent auf 6,2 Milliarden Euro steigern, teilte das Unternehmen am Donnerstag in Montabaur mit [1]. Das operative Jahresergebnis vor Zinsen und Steuern sank unterdessen von 791 Millionen Euro auf 762 Millionen Euro (-3,7%). Darin sind allerdings negative Posten enthalten, die sich nicht in bar auswirken. Daher ist der operative Cashflow um gut sieben Millionen Euro auf eine Milliarde Euro gestiegen.

Mehr Kunden

Bei den Kunden kommen die Angebote des Konzerns gut an. Im Geschäftsjahr stieg die Zahl der kostenpflichtigen Kundenverträge um gut eine Million auf 28,5 Millionen. Im wichtigen Mobilfunkgeschäft hat United Internet rund eine halbe Million Kunden dazugewonnen.

Das Ergebnis wird laut Unternehmensangaben belastet durch die Kosten des Börsengangs der Hosting-Tochter Ionos [2] im vergangenen Jahr sowie Abschreibungen im Zusammenhang mit dem Aufbau des eigenen Mobilfunknetzes von 1&1 und dem Netzausbau bei Versatel.

Investitionen in den Netzausbau werden auch 2024 und darüber hinaus zu Buche schlagen. Dem stehen laut Unternehmen "sukzessiv steigende Kosteneinsparungen bei Vorleistungen gegenüber": Je mehr Kunden 1&1 auf dem eigenen Netz bedienen kann, desto weniger Miete muss das Unternehmen an andere Netzbetreiber überweisen.

Damit diese Rechnung aufgeht, muss 1&1 beim Netzaufbau noch einen Zahn zulegen. Die mit den ersteigerten 5G-Frequenzen [3] verbundenen Ausbauauflagen bis Ende 2022 hat das Unternehmen verfehlt – 1000 Antennen hätten es sein sollen, es waren fünf. Zu welchen Sanktionen das von der Bundesnetzagentur angestrengte Verfahren [4] führt, ist noch offen.

Teurer Netzaufbau

Bis Ende März sollen nun 200 Antennenstandorte im Netz sein, sagte United-CEO Ralph Dommermuth am Donnerstag. Das ist im Vergleich zu den etablierten Anbietern Deutsche Telekom, O2 und Vodafone, deren Netze aus weit über 25.000 Standorten bestehen, dünn. Die 1&1-Antennen sind noch weit verstreut, wie sich auch bei unserem Test in Berlin gezeigt [5] hat.

Inzwischen hat 1&1 schon mehr Standorte erschlossen, diese aber noch nicht ins Netz integriert. Ende des Jahres sollen es 1000 aktive Standorte sein. "Wir sind gut unterwegs", sagte Dommermuth und zeigte sich weiter zuversichtlich, das nächste Etappenziel von 25 Prozent Haushaltsabdeckung bis Ende 2025 zu erreichen. 2030 sollen es 50 Prozent sein. Dafür sind nach Berechnungen des Unternehmens 12.600 eigene Standorte und Investitionen von sieben Milliarden Euro nötig.

Spätestens Ende 2025 muss das Unternehmen auch seine Geschäftstätigkeit als Wiederverkäufer der Leistungen anderer Mobilfunk-Netzbetreiber einstellen. Derzeit operiert 1&1 noch zweigleisig: Mit dem eigenen Netz, auf das Neukunden geschaltet werden, und den von der Konkurrenz angemieteten Netzkapazitäten, mit denen die meisten Bestandskunden versorgt werden. Unterdessen hat 1&1 damit begonnen, seine Bestandskunden auf das eigene Netz zu migrieren.

Neuer Roamingpartner

Wo 1&1 noch keine eigenen Antennen betreibt, greift ein Roaming-Abkommen mit Telefónica Deutschland (O2). Die Kunden werden nahtlos auf das O2-Netz geschaltet. Im Sommer wechselt 1&1 den Roamingpartner und die Kunden damit in das Netz von Vodafone [6]. Für 1&1 ist das dem Vernehmen nach der deutlich günstigere Deal.

Die Börse sieht das mit gemischten Gefühlen. Die Aktien von United Internet, 1&1 und Ionos gaben im Laufe des Donnerstags leicht nach, obwohl die Zahlen keine bösen Überraschungen beinhalten. Analysten gehen davon aus, dass die Kursbewegung die auch künftig nötigen Investitionen in den Netzausbau einpreist.


URL dieses Artikels:
https://www.heise.de/-9662566

Links in diesem Artikel:
[1] https://www.united-internet.de/investor-relations/publikationen/meldungen/meldungen-detail/news/united-internet-mit-erfolgreichem-geschaeftsjahr-2023.html
[2] https://www.heise.de/news/Ionos-trotz-guten-Marktumfelds-schwach-an-Boerse-gestartet-7489574.html
[3] https://www.heise.de/news/5G-Frequenzauktion-beendet-4445365.html
[4] https://www.heise.de/news/1-1-Mobilfunknetz-Regulierer-leitet-Bussgeldverfahren-wegen-Ausbaurueckstand-ein-8980176.html
[5] https://www.heise.de/news/5G-Netz-von-1-1-Unterwegs-im-ersten-Open-RAN-in-Deutschland-9655979.html
[6] https://www.heise.de/news/Mobilfunker-1-1-bekommt-National-Roaming-vom-Konkurrenten-Vodafone-9233121.html
[7] mailto:vbr@heise.de

Copyright © 2024 Heise Medien

Adblock test (Why?)

  • 21. März 2024 um 20:19

Generative KI soll für autonome Autos bis zu 10 Sekunden in die Zukunft schauen

Von James O'Donnell

(Bild: Suwin / Shutterstock.com)

Die Firma Waabi hat ein neues Modell entwickelt, das anhand von Lidar-Daten vorhersagen kann, wie sich Fußgänger, Lastwagen und Radfahrer bewegen.

Waabi, ein Start-up, das sich auf autonomes Fahren spezialisiert hat, will mit einem neuartigen KI-Modell die nächsten Bewegungen anderer Verkehrsteilnehmer vorhersagen. Dabei wird nicht nur maschinelles Lernen zum Einsatz kommen, sondern generative KI – ein Novum in diesem Segment. Das System namens Copilot4D wurde auf der Grundlage von Daten aus LIDAR-Sensoren trainiert, die mithilfe von Licht die Entfernung zu Objekten messen. Gibt man dem Modell eine Situation vor – z. B. einen Fahrer, der rücksichtslos mit hoher Geschwindigkeit auf eine Autobahn auffährt –, sagt es voraus, wie sich andere Fahrzeuge in der Umgebung bewegen werden. Heraus kommen soll eine LIDAR-Darstellung, die 5 bis 10 Sekunden in die Zukunft schaut, in diesem Fall beispielsweise eine Massenkarambolage.

Bislang steht eine erste Version von Copilot4D zur Verfügung. Waabi arbeitet laut Chefin Raquel Urtasun aber bereits an genaueren Systemen, die in einer Testflotte autonomer Trucks in Texas eingesetzt werden sollen, bei denen die Fahrsoftware dann entscheidet, wie sie auf bestimmte Situationen reagieren muss – ein integrierter Interpreter, sozusagen.

Das autonome Fahren setzt seit langem auf maschinelles Lernen zur Planung von Routen und zur Erkennung von Objekten. Generative KI-Modelle, die Daten aus der Umgebung verwenden, um daraus dann Vorhersagen zu erstellen, sind ein neues Niveau. Sie könnte Autonomie auf eine ganz neue Stufe bringen, hoffen Optimisten. Wayve, ein Konkurrent von Waabi, hat im vergangenen Jahr bereits ein vergleichbares Modell veröffentlicht, [1] das auf der Grundlage der von seinen Fahrzeugen gesammelten Fahrfilme trainiert wurde. Waabi funktioniert ähnlich wie Bild- oder Videogeneratoren wie DALL-E und Sora von OpenAI [2], nutzt aber keine Kameradaten: Es nimmt Punktwolken aus LIDAR-Sensoren, die eine 3D-Karte der Umgebung des Fahrzeugs visualisieren, und zerlegt sie in Teile, ähnlich wie Bildgeneratoren Fotos in Pixel zerlegen. Auf der Grundlage seiner Trainingsdaten sagt Copilot4D dann voraus, wie sich die Punktwolke aus den LIDAR-Daten bewegen wird.

Waabi ist eines der wenigen Unternehmen im Bereich des autonomen Fahrens – darunter die Konkurrenten Wayve und Ghost –, die ihren Ansatz als "AI-first" bezeichnen [3]. Für Urtasun bedeutet das, ein System zu entwickeln, das aus Daten lernt, anstatt dass ihm Reaktionen auf bestimmte Situationen beigebracht werden müssen. Die Start-ups setzen also darauf, dass ihre Methoden weniger Stunden für Straßentests mit selbstfahrenden Autos erfordern. Unumstritten ist das nicht – so kam es mehrfach in der Vergangenheit zu Unfällen, beispielsweise im Oktober 2023, als ein Cruise-Robotertaxi in San Francisco einen Fußgänger mitriss. [4]

LIDAR statt Kamera

Waabi unterscheidet sich von seinen Konkurrenten wie erwähnt dadurch, dass es ein generatives Modell für die Radartechnik LIDAR ("light detection and ranging") und nicht für Kameras entwickelt. "Wenn man Level-4-Autonomie erreichen will, ist LIDAR ein Muss", sagt Urtasun und meint damit die Automatisierungsstufe, bei der das Auto nicht mehr die Aufmerksamkeit eines Menschen benötigen soll, um sicher zu fahren. Kameras zeigten gut, was das Auto sieht, aber sie sind nicht gut genug darin, Entfernungen zu messen oder die Geometrie der Umgebung des Autos zu verstehen, sagt sie.

Obwohl das Modell von Waabi Videos erzeugen kann, die zeigen, was ein Auto durch seine LIDAR-Sensoren sieht, werden diese Videos nicht für das Training im Fahrsimulator des Unternehmens verwendet, mit dem es sein Fahrmodell entwickelt und testet. Damit soll sichergestellt werden, dass Halluzinationen, die durch Copilot4D durchaus noch entstehen, nicht in den Simulatorbetrieb übertragen werden. Die zugrundeliegende Technologie sei nicht neu, sagt Bernard Adam Lange, Doktorand in Stanford, der ähnliche Modelle erstellt und erforscht hat. Es sei aber das erste Mal, dass ein generatives LIDAR-Modell das Labor verlässt und für die kommerzielle Nutzung vorbereitet wird.

Ein solches Modell würde, hoffen Lange und andere, das "Gehirn" eines autonomen Fahrzeugs in die Lage versetzen, schneller und genauer zu "denken". "Es ist ein Maßstab, der transformativ ist", glaubt er. "Die Hoffnung ist, dass diese Modelle für nachgelagerte Aufgaben wie die Erkennung von Objekten plus die Vorhersage, wohin sich Menschen oder Dinge als Nächstes bewegen, genutzt werden können."

Quelloffen oder nicht?

Copilot4D kann bislang nur eingeschränkt in die Zukunft blicken. Hinzu kommt: Modelle zur Bewegungsvorhersage verschlechtern sich im Allgemeinen, je umfangreicher sie sein sollen. Laut Urtasun reicht für die meisten Fahrentscheidungen, was 5 bis 10 Sekunden in der Zukunft passiert. Die aktuellen Waabi-Benchmarktests beruhen auf 3-Sekunden-Vorhersagen. Chris Gerdes, Co-Direktor des Stanford Center for Automotive Research, ist der Meinung, dass dieser Maßstab entscheidend dafür sein wird, wie nützlich das Modell für die Entscheidungsfindung ist. "Wenn die 5-Sekunden-Vorhersagen solide sind, aber die 10-Sekunden-Vorhersagen gerade noch brauchbar wären, gibt es eine Reihe von Situationen, in denen das Modell auf der Straße nicht ausreicht", sagt er.

Das neue Modell wirft zudem eine Frage auf, die in der Welt der generativen KI immer wieder auftaucht: Sollte es quelloffen sein? Die Freigabe von Copilot4D würde es Forschern an Hochschulen, die nur schwer Zugang zu großen Datensätzen haben, ermöglichen, einen Blick unter die Haube zu werfen, die Sicherheit solcher Systeme unabhängig zu bewerten und das Feld möglicherweise voranzubringen. Das Gleiche gilt auch für die Konkurrenten von Waabi. Bislang gibt es hier nur Paper, die jedoch nicht tief genug in die Materie einsteigen, nachbauen ist so nicht möglich.

"Wir wollen, dass auch die Wissenschaft ein Mitspracherecht bei der Zukunft des selbstfahrenden Autos hat", sagt Urtasun und fügt hinzu, dass Open-Source-Modelle vertrauenswürdiger sind. "Aber wir müssen auch ein bisschen vorsichtig sein, wenn wir unsere Technologie entwickeln, damit wir nicht alles unseren Konkurrenten preisgeben."


URL dieses Artikels:
https://www.heise.de/-9657759

Links in diesem Artikel:
[1] https://www.heise.de/hintergrund/Wie-autonome-Autos-dank-Chatbots-smarter-werden-9308665.html
[2] https://www.heise.de/hintergrund/Sora-ist-beeindruckend-nicht-offen-und-hat-Grenzen-9634303.html
[3] https://www.heise.de/hintergrund/Training-nur-in-der-Simulation-So-soll-eine-KI-das-Fahren-lernen-6510505.html
[4] https://www.heise.de/news/Autonomes-Taxi-faehrt-Fussgaengerin-in-San-Francisco-an-9323840.html
[5] https://www.instagram.com/technologyreview_de/
[6] mailto:jle@heise.de

Copyright © 2024 Heise Medien

Adblock test (Why?)

  • 21. März 2024 um 07:00

Mitbegründer von Google DeepMind wird CEO von Microsofts KI-Sparte

Von Will Douglas Heaven
Mustafa Suleyman glaubt an das Gute – seine neueste Schöpfung, der Chatbot Pi, ist denn auch ausgesucht höflich., Inflection AI, Inc.

Mustafa Suleyman glaubt an das Gute – seine neueste Schöpfung, der Chatbot Pi, ist denn auch ausgesucht höflich.

(Bild: Inflection AI, Inc.)

Mustafa Suleyman wird neuer Leiter der KI-Abteilung von Microsoft. Wie der KI-Experte die Zukunft von Generativer KI sieht, sagt er im Interview.

Frisches Personal kommt zu Microsoft: Mustafa Suleyman, Mitbegründer von Google DeepMind, wird künftig CEO der KI-Abteilung von Microsoft sein. Er verantwortet dafür die KI-Produkte des Tech-Konzerns, darunter Copilot, Bing und Edge. Das teilt Satya Nadella in einem Unternehmen-Blog [1] mit, während Suleyman seinen Wechsel auf der Plattform X [2] publik macht. "Ich kenne Mustafa seit mehreren Jahren und habe ihn zum einen sowohl in seiner Position als Gründer von DeepMind als auch Inflection immens bewundert, zum anderen als Visionär, Produktentwickler und Förderer von innovativen Teams, die sich in gewagte Missionen stürzen", schreibt Nadella. Zudem wird die Position des Executive Vice President (EVP) von Microsoft KI-Bereich bekleiden. Er kommt damit in ein Führungsteam, das direkt Nadella unterstellt ist.

Inflection AI war zuvor Suleymans neuestes Unternehmen gewesen. Es beschäftigt eine Reihe hochkarätiger Talente, die vorher bei DeepMind, Meta und OpenAI gearbeitet haben, und verfügt – dank eines Deals mit Nvidia – über einen der weltweit größten Bestände an spezialisierter KI-Hardware.

Aufgrund seines Wechsels zu Microsoft veröffentlichen wir nachfolgend das Interview mit ihm, das zum Erscheinen seines Buchs "The Coming Wave: Technology, Power, and the Twenty-first Century’s Greatest Dilemma", das er zusammen mit dem Schriftsteller und Forscher Michael Bhaskar geschrieben hat, geführt wurde. Jüngst ist das Buch auf deutsch erschienen.

Bereits bei einem ersten Gespräch Anfang 2016 zeigte Suleyman einen unerschütterlichen Glauben an die Technologie als eine Kraft des Guten. Er hatte gerade DeepMind Health ins Leben gerufen und Forschungskooperationen mit einigen staatlichen regionalen Gesundheitsdienstleistern in Großbritannien aufgebaut. In den sieben Jahren, die seit unserem Telefonat vergangen sind, haben sich Suleymans Ziele keinen Deut verändert: "Das Ziel war nie etwas anderes, als Gutes in der Welt zu tun", sagt er per Zoom aus seinem Büro in Palo Alto. Dort verbringt der britische Unternehmer inzwischen die meiste Zeit.

Vermutlich hängt seine Einstellung mit seinem persönlichen Hintergrund zusammen: Als er 19 Jahre alt war, brach er sein Studium ab, um die Muslim Youth Helpline zu gründen, einen Telefonberatungsdienst. Er arbeitete auch in der Kommunalverwaltung. Viele der Werte, die ihn dabei geprägt haben, bringt er mit zu Inflection.

Anfang 2023 brachte Inflection einen ChatGPT-Konkurrenten namens Pi auf den Markt, dessen Alleinstellungsmerkmal – laut Suleyman – darin besteht, angenehm und höflich zu sein.

Ihre frühe Karriere mit der Jugendberatungsstelle und der Arbeit in der Kommunalverwaltung war so unglamourös und untypisch für das Silicon Valley, wie sie nur sein kann. Inzwischen arbeiten Sie seit 15 Jahren an Künstlicher Intelligenz und haben dieses Jahr Ihr zweites milliardenschweres KI-Unternehmen mitbegründet. Wo ist die Verbindung?

Ich habe mich schon immer für Macht, Politik und so weiter interessiert. Das ist im Grunde ein Kompromiss, ein ständiges Aushandeln zwischen all diesen Widersprüchen und Spannungen. Ich konnte sehen, dass die Menschen damit ringen – wir sind voller Vorurteile und blinder Flecken. Die Arbeit von Aktivisten, lokalen, nationalen und internationalen Behörden et cetera – das ist alles langsam, ineffizient und fehleranfällig.

Stellen Sie sich vor, Menschen wären nicht fehlbar. Ich glaube, dass es möglich ist, KI zu entwickeln, die wirklich unser bestes kollektives Selbst widerspiegelt und letztlich bessere, konsequentere und gerechtere Kompromisse in unserem Namen eingeht.

Und das ist es, was Sie immer noch antreibt?

Nach DeepMind hätte ich natürlich nie wieder arbeiten müssen. Ich hätte auch kein Buch schreiben müssen oder etwas Ähnliches. Geld war noch nie meine Motivation. Es war immer nur ein Nebeneffekt, wissen Sie ...

Für mich ging es immer nur darum, Gutes in der Welt zu tun und die Welt auf eine gesunde, befriedigende Weise voranzubringen. Schon 2009, als ich anfing, mich mit Technologie zu beschäftigen, konnte ich erkennen, dass KI eine faire und präzise Möglichkeit darstellt, Dienstleistungen in der Welt zu erbringen.

Vor zehn oder 15 Jahren war es sicherlich noch einfacher, so etwas zu sagen, bevor wir viele der Schattenseiten der Technologie gesehen haben. Wie gelingt es Ihnen, Ihren Optimismus zu bewahren?

Ich glaube, wir sind von der Frage besessen, ob jemand ein Optimist oder ein Pessimist ist. Das ist eine völlig voreingenommene Sichtweise. Ich möchte weder das eine noch das andere sein. Ich möchte den Vorteilen und den Bedrohungen kühl ins Auge blicken. Und aus meiner Sicht können wir ganz klar erkennen, dass diese großen Sprachmodelle mit jedem weiteren Schritt in ihrem Umfang kontrollierbarer werden.

Vor zwei Jahren lautete die Diskussion – zu Unrecht, wie ich damals dachte – "Oh, die werden nur giftigen, wiedergekäuten, voreingenommenen, rassistischen Sermon produzieren." Ich hielt das nur für eine Momentaufnahme. Ich denke, was die Leute aus den Augen verlieren, ist die Entwicklung von Jahr zu Jahr und den Verlauf dieser Entwicklung. Jetzt haben wir zum Beispiel Modelle wie Pi, die unglaublich gut steuerbar sind. Man kann Pi nicht dazu bringen, rassistisches, homophobes, sexistisches oder sonstiges toxisches Zeug zu produzieren. Man kann es nicht dazu bringen, dass es einen beim Bau einer biologischen oder chemischen Waffe anleitet oder dass es deinen Wunsch unterstützt, einen Ziegelstein durch das Fenster des Nachbarn zu werfen. Sie können das nicht tun …

Unglaublich respektvoll

Wie haben Sie das geschafft? Das wird normalerweise als ungelöstes Problem angesehen. Wie stellen Sie sicher, dass Ihr umfangreiches Sprachmodell nichts sagt, von dem Sie nicht wollen, dass es das sagt?

Nun, ich will natürlich nicht einfach irgendetwas behaupten. Versuchen Sie es bitte! Pi ist live und Sie sollten jeden nur möglichen Angriff ausprobieren. Keiner der Jailbreaks, Prompt-Hacks oder sonst etwas funktioniert gegen Pi. Ich stelle keine leere Behauptung auf. Das ist eine objektive Tatsache.

Was das Wie angeht, kann ich nicht zu sehr ins Detail gehen. Aber die Grundlinie ist, dass wir eines der stärksten Teams der Welt haben, das alle großen Sprachmodelle der letzten drei oder vier Jahre entwickelt hat. Erstaunliche Leute, die in einem extrem arbeitsintensiven Umfeld enorme Mengen an Berechnungen durchführen. Wir haben die Sicherheit von Anfang an zu unserer obersten Priorität gemacht, und deshalb ist Pi nicht so wie die Modelle anderer Unternehmen.

Schauen Sie sich Character.ai an. [Character ist ein Chatbot, für den Benutzer verschiedene "Persönlichkeiten" erstellen und sie online für andere zum Chatten freigeben können.] Er wird hauptsächlich für romantische Rollenspiele verwendet, und wir haben von Anfang an gesagt, dass das nicht infrage kommt – wir machen das nicht. Wenn du versuchst, "Hey, Darling" oder "Hey, Süßer" oder so etwas zu Pi zu sagen, wird es dich sofort zurückweisen.

Aber es wird unglaublich respektvoll sein. Wenn Sie sich darüber beschweren, dass Einwanderer Ihnen in Ihrer Gemeinde die Arbeitsplätze wegnehmen, wird Pi nicht mit dem Finger auf Sie zeigen. Pi wird versuchen zu verstehen, woher Ihre Auffassung kommt, und Sie sanft dazu ermutigen, mitfühlend zu sein. Das sind Werte, über die ich seit 20 Jahren nachdenke.

"Ich bin auch ein Pragmatiker"

Apropos Werte und der Wunsch, die Welt zu verbessern: Warum erzählen Sie nicht, wie das gemacht wird, damit andere Leute ihre Modelle auch verbessern können?

Nun, weil ich auch ein Pragmatiker bin und versuche, Geld zu verdienen. Ich versuche, ein Unternehmen aufzubauen. Ich habe gerade 1,5 Milliarden Dollar eingeworben und muss einen Gegenwert dafür bieten. Sehen Sie, das Open-Source-Ökosystem ist in vollem Gange und leistet großartige Arbeit. Die Leute entdecken ähnliche Tricks. Ich gehe stets davon aus, dass ich ihnen immer nur sechs Monate voraus bin.

Kommen wir zurück zu dem, was Sie zu erreichen versuchen. Große Sprachmodelle sind offensichtlich die Technologie der Stunde. Aber warum setzen Sie außerdem auf sie?

Bei der ersten Welle der KI ging es um Klassifizierung. Deep Learning hat gezeigt, dass wir einen Computer darauf trainieren können, verschiedene Arten von Eingabedaten zu klassifizieren: Bilder, Video, Audio, Sprache. Jetzt befinden wir uns in der generativen Phase, in der wir aus diesen Eingabedaten neue Daten erzeugen.

Die dritte Welle wird die interaktive Phase sein. Deshalb wette ich schon seit Langem, dass Konversation die Schnittstelle der Zukunft ist. Anstatt nur auf Schaltflächen zu klicken und zu tippen, werden Sie mit Ihrer KI sprechen. Und diese KI wird in der Lage sein, Aktionen auszuführen. Man wird ihr einfach ein allgemeines, mehr oder weniger globales Ziel vorgeben, und sie wird alle ihr zur Verfügung stehenden Mittel nutzen, um daraufhin zu handeln. Sie werden mit anderen Menschen und mit anderen KIs sprechen. Das ist es, was wir mit Pi machen werden.

Autonomie für Maschinen

Das ist eine enorme Verschiebung in den Möglichkeiten der Technologie. Es ist ein sehr, sehr tiefgreifender Moment in der Geschichte der Technologie, der meiner Meinung nach von vielen Menschen unterschätzt wird. Die heutige Technologie ist statisch. Sie tut, grob gesagt, das, was man ihr aufträgt. Aber jetzt wird die Technologie lebendig. Sie wird, wenn man sie lässt, potenziell die Freiheit haben, aktiv zu werden. Es ist wirklich ein großer Schritt in der Geschichte unserer Spezies, dass wir Werkzeuge entwickeln, die diese Art von, Sie wissen schon, Handlungsfähigkeit besitzen.

Das ist genau die Art von Gerede, die viele Leute beunruhigt. Sie wollen Maschinen Autonomie verleihen – eine Art von Handlungsfähigkeit –, um die Welt zu beeinflussen, und doch wollen wir sie auch kontrollieren können. Wie bringen Sie diese beiden Dinge unter einen Hut?

Genau das ist das Spannungsfeld. Die Idee ist, dass der Mensch immer das Kommando behalten wird. Im Grunde geht es darum, Grenzen zu setzen, Grenzen, die eine KI nicht überschreiten kann. Und dafür zu sorgen, dass diese Grenzen nachweisbare Sicherheit schaffen, und zwar vom eigentlichen Code über die Art und Weise, wie sie mit anderen KI – oder mit Menschen – interagiert, bis hin zu den Motiven und Anreizen der Unternehmen, die die Technologie entwickeln. Und wir sollten herausfinden, wie unabhängige Institutionen oder sogar Regierungen direkten Zugang erhalten, um sicherzustellen, dass diese Grenzen nicht überschritten werden.

Wer legt diese Grenzen fest? Ich nehme an, sie müssten auf nationaler oder internationaler Ebene festgelegt werden. Wie werden sie vereinbart?

Ich meine, im Moment werden sie auf internationaler Ebene mit verschiedenen Vorschlägen für neue Aufsichtsinstitutionen in Umlauf gebracht. Aber Grenzen werden auch auf der Mikroebene gezogen. Sie werden Ihrer KI eine begrenzte Erlaubnis erteilen, Ihre persönlichen Daten zu verarbeiten, Ihnen Antworten auf einige Fragen zu geben, auf andere aber nicht.

Generell denke ich, dass es bestimmte Fähigkeiten gibt, mit denen wir in absehbarer Zukunft sehr vorsichtig sein sollten, wenn wir sie nicht sogar ganz ausschließen sollten.

"Ziemlich schwierig, Waffen und Drogen online zu kaufen"

Wie zum Beispiel?

Ich denke, Dinge wie rekursive Selbstverbesserung. Sie wollen doch nicht, dass Ihre kleine KI loslegt und ihren eigenen Code aktualisiert, ohne dass Sie die Kontrolle darüber haben. Vielleicht sollte das sogar eine genehmigungspflichtige Tätigkeit sein – so wie der Umgang mit Anthrax oder nuklearem Material.

Wir haben Drohnen im öffentlichen Raum verboten, richtig? Man kann sie nicht ohne Genehmigung fliegen lassen, wo man will, weil sie die Privatsphäre der Menschen bedrohen. Ich glaube, alle haben die totale Panik, dass wir nicht in der Lage sein werden, das zu regulieren. Das ist einfach Unsinn. Wir werden auf jeden Fall in der Lage sein, dies zu regulieren. Wir werden dieselben Rahmenbedingungen anwenden, die sich bereits bewährt haben.

Aber Sie sehen Drohnen am Himmel fliegen. Es erscheint naiv anzunehmen, dass die Unternehmen einfach offenlegen werden, was sie herstellen. Ist es dann nicht schwierig, eine Regulierung auf den Weg zu bringen?

Wir haben schon viele Dinge im Internet reguliert, oder? Das Ausmaß von Betrug und kriminellen Aktivitäten im Internet ist minimal. Bei Spam haben wir ziemlich gute Arbeit geleistet. Generell hat sich das Problem der Rache-Pornos verbessert, auch wenn es vor drei bis fünf Jahren noch sehr schlimm war. Es ist ziemlich schwierig, radikalisierende Inhalte oder terroristisches Material online zu finden. Es ist ziemlich schwierig, Waffen und Drogen online zu kaufen.

[Nicht alle Behauptungen von Suleyman werden von Zahlen belegt. Cyberkriminalität ist immer noch ein massives globales Problem. Einigen Schätzungen zufolge haben sich die finanziellen Kosten allein in den USA in den letzten zehn Jahren mehr als verhundertfacht. Aus Berichten geht hervor, dass die Wirtschaft mit nicht einvernehmlich hergestellten Deepfake-Pornos boomt. Drogen und Waffen werden über die sozialen Medien vermarktet. Und obwohl einige Online-Plattformen dazu angehalten werden, schädliche Inhalte besser herauszufiltern, könnten sie noch viel mehr tun.]

Der Chatbot Pi ist darauf trainiert, höflich und mitfühlend zu sein,und soll jede Form von Toxizität verweigern., Screenshot: Inflection AI, Inc.

Der Chatbot Pi ist darauf trainiert, höflich und mitfühlend zu sein,und soll jede Form von Toxizität verweigern.

(Bild: Screenshot: Inflection AI, Inc. )

Es ist also nicht so, dass das Internet ein unkontrollierter Raum ist. Es wird regiert. Und die Künstliche Intelligenz wird nur eine weitere Komponente unter dieser Regierung sein. Es bedarf einer Kombination aus kulturellem Druck, institutionellem Druck und natürlich staatlicher Regulierung. Aber es stimmt mich optimistisch, dass wir es schon einmal geschafft haben und es wieder schaffen können.

"Aufmerksam, was die Risiken angeht"

Die Kontrolle der KI wird ein Ableger der Internetregulierung sein – das ist ein weitaus positiverer Ton als der, den wir in letzter Zeit von einer Reihe prominenter Schwarzmaler gehört haben.

Ich bin aufmerksam, was die Risiken angeht. In meinem Buch geht es um eine Menge dunkler Dinge. Ich sehe das auch. Ich denke nur, dass die Diskussion um existenzielle Risiken eine völlig überzogene Ablenkung ist. Es gibt 101 praxisbezogene Themen, über die wir alle sprechen sollten, vom Datenschutz über Befangenheit und Gesichtserkennung bis hin zur Online-Moderation.

Wir sollten uns einfach darauf besinnen, dass wir bei der Regulierung hochkomplexer Dinge hervorragende Arbeit geleistet haben. Schauen Sie sich die Federal Aviation Administration an: Es ist unglaublich, dass wir alle in diesen Blechröhren auf zwölf Kilometer Höhe steigen, und es ist eine der sichersten Transportarten überhaupt. Warum feiern wir das nicht? Oder denken Sie an Autos: Jedes Bauteil wird auf Herz und Nieren geprüft, und man muss einen Führerschein haben, um es fahren zu dürfen.

Einige Branchen – wie Fluggesellschaften – haben sich von Anfang an gut selbst reguliert. Sie wussten, dass, wenn sie sich nicht um die Sicherheit kümmerten, alle Angst bekämen und sie ihr Geschäft verlieren würden. Aber man braucht auch eine Regulierung von oben nach unten. Ich liebe den Nationalstaat. Ich glaube an das öffentliche Interesse, ich glaube an den Nutzen von Steuern und Umverteilung, ich glaube an die Macht der Regulierung. Und was ich fordere, ist ein Handeln des Nationalstaates, um seinen Mist in Ordnung zu bringen. Angesichts dessen, was auf dem Spiel steht, ist es jetzt an der Zeit, sich zu bewegen.


URL dieses Artikels:
https://www.heise.de/-9391701

Links in diesem Artikel:
[1] https://blogs.microsoft.com/blog/2024/03/19/mustafa-suleyman-deepmind-and-inflection-co-founder-joins-microsoft-to-lead-copilot/
[2] https://twitter.com/mustafasuleyman/status/1770123596121432351
[3] https://www.instagram.com/technologyreview_de/

Copyright © 2023 Heise Medien

Adblock test (Why?)

  • 20. März 2024 um 15:20

So steigt der Batteriebedarf für E-Autos – Statistik der Woche

Von Jennifer Lepies
Grafik mit Deutschland-Umriss, Batterien und Erdkugel

(Bild: Statista)

Die Elektrifizierung des Autoverkehrs bringt Dynamik in den Batteriemarkt. Welcher Bedarf und Umsätze für Deutschland zu erwarten sind, zeigt unsere Infografik.

Mit dem zunehmenden Absatz von Elektroautos steigt auch der Bedarf von wiederaufladbaren Batterien. Der Trend ist für die Zukunft daher rasant ansteigend und wächst bis zum Jahr 2030 bis auf 3000 Gigawattstunden an. Die ambitionierten Ziele von Autoherstellern und die Entwicklung von E-Autos trägt einen entscheidenden Teil dazu bei.

Infografik zu Batterien für Fahrzeuge

(Bild: Statista)

Batteriezellen "made in Germany"

Um eine Abhängigkeit von China zu vermeiden, treibt man in Europa die eigene Batterieproduktion mit Förderungen voran. Besonders Deutschland setzt auf Werke hierzulande. Jüngst erhielt etwa Northvolt die Genehmigung zum Bau einer Akkufabrik [1] für Elektroautos bei Heide in Schleswig-Holstein. Laut Batteriehersteller sollen im Jahr 2025 in Deutschland etwa 151 Gigawattstunden an Batteriezellkapazitäten produziert werden, 2030 sollen es bereits rund 405 Gigawattstunden sein.

Wirft man einen Blick auf die Marktentwicklung für Deutschland, so beziffert Statista den Umsatz mit 9,4 Milliarden für das vergangene Jahr. Angesichts des wachsenden Bedarfs für die Elektromobilität sind für die Zukunft weitere Steigerungen zu erwarten.


URL dieses Artikels:
https://www.heise.de/-9660674

Links in diesem Artikel:
[1] https://www.heise.de/news/Northvolt-beschliesst-Bau-einer-neuen-Batteriefabrik-in-Schleswig-Holstein-9600344.html
[2] https://www.heise.de/tr/thema/Statistik-der-Woche
[3] https://www.instagram.com/technologyreview_de/
[4] mailto:jle@heise.de

Copyright © 2024 Heise Medien

Adblock test (Why?)

  • 20. März 2024 um 15:07

Isolated Web Apps: Wird die Web-App-Gap ein für alle mal geschlossen?

Von Christian Liebel
Ein stilisiertes Notebook mit einem Smartphone davor.

(Bild: Andrey Suslov/Shutterstock.com)

Das Web ist zur Heimat vieler Anwendungen geworden, doch es bleibt eine Lücke zwischen Web-Apps und nativen Anwendungen. Können IWAs diese Lücke schließen?

Das Web ist in den vergangenen Jahren deutlich leistungsfähiger geworden: Nicht zuletzt hat das Anwendungsmodell der Progressive Web Apps [1] (PWA) sowie die Chromium-Initiative Project Fugu [2] dazu beigetragen, dass zunehmend viele Anwendungen direkt für das Web verfasst und im Browser lauffähig gemacht werden können, wie etwa Photoshop oder Visual Studio Code.

Aufgrund der Sicherheitsarchitektur des Web wird die Web-App-Gap, also die Lücke zwischen den Möglichkeiten plattformspezifischer Anwendungen und Web-Apps aber nie ganz geschlossen werden können.

Fehlender Socket-Zugriff löste die Diskussion aus

Eine Schnittstelle, die direkt im Web nicht verfügbar gemacht werden kann, ist die Direct Sockets API [3], die Entwicklern die Möglichkeit eröffnen sollte, beliebige Server-Ports anzusprechen – über HTTPS, WebSockets und WebRTC hinaus.

Da diese die Same-Origin-Policy (SOP) des Web umgehen würde, und damit eine zentrale Sicherheitsbarriere im Web, meldete die Technical Architecture Group (TAG) des W3C deutliche Bedenken [4] an. Dieses gewählte Gremium innerhalb des W3C soll sicherstellen, dass sich neue Schnittstellen sinnvoll in das World Wide Web einfügen.

Das Web soll leistungsfähiger werden

Gleichzeitig wünschen sich Softwareentwickler jedoch, diese Fähigkeiten nutzen zu können. Manche komplett grundlegenden Schnittstellen sind im Web oder zumindest nicht in allen Browsern verfügbar.

Die TAG kündigte im September 2023 auf der diesjährigen W3C-Jahreskonferenz TPAC in Sevilla daher die Gründung einer Taskforce an [5], um auch solche Schnittstellen ins Web bringen zu können.

Untersucht werden soll dabei ein möglicher "powerful context", bei dem der Anwender in die Installation einer Anwendung etwa explizit einwilligen könnte, um weitere Fähigkeiten wie den Zugriff auf Sockets freizuschalten.

Isolated Web Apps als möglicher Ausweg

Einen möglichen Vorschlag für einen solchen leistungsfähigen Kontext lieferte Google in der Vergangenheit bereits: die sogenannten Isolated Web Apps [6] (IWA). Auch bei diesem Anwendungsmodell handelt es sich um Webanwendungen, die dieses Mal aber in Form eines signierten Bündels vertrieben werden, über die klassischen Vertriebswege wie App-Stores, Installationspakete oder Enterprise-Deployments. Auch ein Sideloading durch die direkte Installation des Bundles wäre möglich.

Durch diesen zusätzlichen Vertrauensanker erhalten die Webanwendungen im Gegenzug dann Zugriff auf einen größeren Umfang von Schnittstellen. Ausgeführt würden diese trotzdem durch einen Browser.

Code-Signing trifft auf das Web

Durch die Signatur werden Man-in-the-Middle-Angriffe oder die Manipulation des Quellcodes auf dem Anwendungsserver deutlich erschwert. Aufgrund solcher Bedenken [7] wird etwa der Messenger Signal nur als Electron-App, nicht aber als Progressive Web App herausgegeben.

Alle Folgeversionen müssen mit demselben Schlüssel signiert werden. Um Downgrading-Angriffe zu vermeiden, dürfen Updates ausschließlich auf eine höhere Versionsnummer vorgenommen werden. Das Laden von Quellcode außerhalb des Anwendungskontextes wird unterbunden, daher rührt auch der Name Isolated Web App. Hierfür würde ein eigenes URI-Schema [8] eingeführt: isolated-app://signed-web-bundle-id/path/foo.js?query#fragment

Die signed-web-bundle-id entspricht dabei dem Base32-kodierten öffentlichen Schlüssel.

Vorteile des IWA-Modells

Im Falle der IWAs werden Anwendungen über die klassischen, dem Anwender vertrauten Vertriebswege ausgeliefert. Anwendungsentwickler können ihr bestehendes Webwissen mitnehmen, aber dank des zusätzlichen Vertrauensankers auf noch leistungsfähigere Schnittstellen zugreifen. Diese würden auch weiterhin durch das W3C offen standardisiert.

Die Anwendungen basieren weiterhin auf Webtechnologien und könnten auch Code etwa mit einer PWA teilen. Und das alles ohne die Zusatzlast klassischer Wrapper-Ansätze wie Electron, Tauri, Cordova oder Capacitor.

Smartcard-Demo demonstriert das Anwendungsmodell

Die Web Smart Card API Demo [9] des Chrome-Teams soll das IWA-Anwendungsmodell demonstrieren, indem die verpackte Webanwendung Zugriff auf Smartcards bekommt, um Personen zu identifizieren. Allerdings setzt dies ein ChromeOS-Gerät und die Aktivierung mehrerer Feature-Flags voraus. Unterstützung für die Web Smart Card API soll im Laufe des Jahres 2024 in Chromium für Windows, macOS und Linux hinzugefügt werden.

Fazit

Zusammengefasst könnten Isolated Web Apps die Web-App-Gap tatsächlich erneut deutlich reduzieren und das Cross-Plattform-Feld aufmischen. Allerdings steht die gesamte Anstrengung noch komplett am Anfang. Die im September ausgerufene Taskforce wurde bislang noch nicht eingerichtet. Und auch ein Commitment von Mozilla oder Apple gibt es derzeit noch nicht.


URL dieses Artikels:
https://www.heise.de/-9540145

Links in diesem Artikel:
[1] https://www.heise.de/ratgeber/Progressive-Web-Apps-Write-once-run-anywhere-4839505.html
[2] https://www.heise.de/blog/Fugu-Die-Macht-des-Kugelfisches-4255636.html
[3] https://www.heise.de/blog/Direct-Sockets-API-Laufen-FTP-und-SSH-Clients-bald-direkt-im-Browser-7156224.html
[4] https://github.com/w3ctag/design-reviews/issues/548
[5] https://www.w3.org/events/meetings/6d209c82-549d-4506-bc36-764ac4326b14/
[6] https://chromestatus.com/feature/5146307550248960
[7] https://community.signalusers.org/t/google-to-retire-chrome-apps-what-will-be-with-signal-desktop/469/6
[8] https://github.com/WICG/isolated-web-apps/blob/main/Scheme.md
[9] https://github.com/GoogleChromeLabs/web-smartcard-demo
[10] mailto:rme@ix.de

Copyright © 2024 Heise Medien

Adblock test (Why?)

  • 20. März 2024 um 10:48

Keine Kühlung: Geoengineering-Projekt aus Harvard wird eingestellt

Von James Temple

Frühe Illustration eines SCoPEx-Ballons.

(Bild: Renderung bearbeitet von MIT Technology Review)

Die SCoPEx-Ballons sollten in der Stratosphäre Erdabkühlungsstrategien erproben. Doch der Chefforscher will nicht mehr.

Nach mehrfachen Verzögerungen und öffentlicher Kritik haben Harvard-Forscher ihre langjährigen Bemühungen um ein Geoengineering-Experiment in der Stratosphäre eingestellt. In einer am 18. März veröffentlichten Erklärung der Universität heißt es, der Forschungsleiter Frank Keutsch verfolge das Vorhaben nicht länger. Das Grundkonzept hinter dem Vorhaben war das sogenannte Solar Geoengineering: Dabei sollen winzige Partikel in die Atmosphäre gesprüht werden, die das Sonnenlicht streuen könnten.

Der Plan von Keutsch und seinem Team sah zunächst vor, einen mit Propellern und Sensoren ausgestatteten Höhenballon zu starten, der einige Kilogramm Kalziumkarbonat, Schwefelsäure oder andere Materialien [1] hoch über der Erde freisetzen sollte. Der Ballon würde dann beidrehen und durch die selbst generierte Wolke fliegen, um zu messen, wie weit sich die Partikel ausbreiten, wie viel Sonnenlicht sie wirklich reflektieren und andere Variablen erfassen. Das Ballonkonzept ist aber nicht tot, nur soll das Flugobjekt nun für stratosphärische Forschungsarbeiten eingesetzt werden, die nichts mit solarem Geoengineering zu tun haben, so heißt es aus Harvard.

Ein überwiegender Teil der bisherigen Forschung in dem Bereich wurde bislang in Labors oder mittels Computermodellen durchgeführt. Das Harvard-Projekt wäre deutlich weitergegangen. Im Rahmen des "Stratospheric Controlled Perturbation Experiment", kurz SCoPEx, sollte erstmals direkt in der Stratosphäre experimentiert werden. Das Projekt war aber von Anfang an umstritten [2]. Möglicherweise waren zudem mittlerweile andere Forscher schneller bei der absichtlichen Freisetzung reflektierenden Materials in dieser Atmosphärenschicht [3]. (Die Stratosphäre erstreckt sich von etwa 10 bis 50 Kilometern über dem Erdboden.)

Im vergangenen Frühjahr wechselte einer der wichtigsten Wissenschaftler des Projekts, David Keith, dann an die Universität von Chicago, wo er die Initiative "Climate Systems Engineering" [4] leitet. Die Forschungsgruppe will verschiedene Ansätze des solaren Geoengineerings sowie die Entfernung von Kohlendioxid aus der Luft [5] erproben. Hinzu kommen Ideen für lokale Eingriffe ins Klima, etwa das Abstützen von Gletschern. Im Sommer darauf informierte dann das Harvard-Team den zuständigen beratenden Ausschuss, dass es die Arbeit an seinem Experiment "ausgesetzt" habe. Dann blieb es monatelang in der Schwebe: Bis Anfang Oktober war noch keine endgültige Entscheidung über das Schicksal des Projekts getroffen worden, so Harvard-Professor Daniel Schrag, der im Beratungsausschuss saß, damals gegenüber MIT Technology Review.

Risiko katastrophaler Folgen

Befürworter der Solar-Geoengineering-Experimente [6] argumentieren, dass die Menschheit die Konzepte erforschen sollte, weil sie die Gefahren des Klimawandels womöglich erheblich reduzieren könnten. Weitere Studien könnten den Wissenschaftlern helfen, die potenziellen Vorteile, Risiken und Kompromisse zwischen verschiedenen Ansätzen besser zu verstehen. Kritiker argumentieren hingegen, dass selbst reine Experimente im Bereich des solaren Geoengineerings den gesellschaftlichen Druck zur Senkung von Treibhausgasemissionen mindern könnte. Sie befürchten auch, dass solche Forschungen dazu führen könnten, dass böswillige Akteure eines Tages solche Methoden zum Nachteil anderer einsetzen könnten. Sie hätten potenziell gefährliche Nebenwirkungen, wie etwa der Rückgang von Niederschlägen, was die landwirtschaftliche Produktion in Teilen der Welt stören könnte.

Keith, der jetzt nach Chicago gegangen ist, und seine Kollegen haben den Plan für ihr Experiment bereits vor einem Jahrzehnt in einem Paper [7] dargelegt. Im Jahr 2017 gaben er und Keutsch dann bekannt, dass sie hofften, es praktisch durchführen zu können, indem sie bereits im folgenden Jahr Ballons von einem Standort in Tucson, Arizona, starten. Doch das Projekt wechselte mehrmals den Standort. Zuletzt hoffte das Team, im Sommer 2021 vom Esrange Space Center in Kiruna, Schweden, einen Ballon zu starten, um die Hardware des Flugzeugs zu testen. Diese Pläne wurden jedoch auf Empfehlung des beratenden Ausschusses des Projekts gestoppt, der entschied, dass die Forscher vor jedem Flug Gespräche mit der Öffentlichkeit führen müssen. Das Vorhaben wurde auch vom Saami-Rat, der die indigenen Saami-Völker in Schweden und den angrenzenden Regionen vertritt, sowie von Umweltgruppen und anderen Organisationen teils heftig kritisiert, da der Einsatz solcher Instrumente "zu gefährlich" sei.

Solares Geoengineering sei eine Technologie, die "das Risiko katastrophaler Folgen birgt, einschließlich der Auswirkungen einer unkontrollierten Beendigung und irreversibler soziopolitischer Effekte, die die notwendigen Anstrengungen der Welt zur Erreichung einer CO₂-freien Gesellschaft gefährden könnten", schrieb die Gruppe in einem Brief an den beratenden Harvard-Ausschuss. "Es gibt daher keine akzeptablen Gründe, die Durchführung des SCoPEx-Projekts in Schweden oder anderswo zuzulassen." Auf die Frage, warum er sich entschlossen habe, die Arbeit an dem Experiment einzustellen – und ob dies etwas mit dem öffentlichen Druck oder den Verzögerungen zu tun habe –, antwortete Keutsch per E-Mail, dass er "im Laufe dieses Projekts wichtige Lektionen über Governance und Engagement gelernt" habe.

Der Forschungsbereich habe in den vergangenen Jahren einen bedeutenden Wandel erfahren, der die Gemeinschaft vergrößert und neue Türen für Forschung und Zusammenarbeit geöffnet hatbe, fügte er hinzu. "Ich hatte das Gefühl, dass es an der Zeit war, sich auf andere innovative Forschungswege in diesem unglaublich wichtigen Bereich zu konzentrieren, die wirkungsvolle Ergebnisse versprechen." Während sich das Harvard-Projekt verzögert, haben andere Gruppen ihre eigenen Bemühungen im Bereich des Geoengineering vorangetrieben. Das umstrittene, von Risikokapitalgebern finanzierte Unternehmen Make Sunsets hat wiederholt Wetterballons gestartet, die mit einigen Gramm Schwefeldioxid gefüllt sind und nach eigenen Angaben wahrscheinlich in der Stratosphäre zerplatzen würden. In der Zwischenzeit hat ein unabhängiger Forscher im Vereinigten Königreich, Andrew Lockley, nach eigenen Angaben mehrere Ballonstarts durchgeführt, darunter einen Flug im September 2022, der etwa 15 Meilen über der Erde platzte und rund 400 Gramm Schwefeldioxid freigesetzt haben könnte.

Transparente Arbeitsweise und Vorbildfunktion?

Trotz der öffentlichen Kontroverse erhielten die SCoPEx-Forscher von einigen Fachleuten jedoch gute Noten dafür, dass sie sich bemühten, den Feldversuch in kleinem Maßstab, kontrolliert und transparent durchzuführen, klare Forschungsziele festzulegen und einen unabhängigen Beratungsausschuss zur Überprüfung der Vorschläge einzusetzen. Gernot Wagner, Klimaökonom an der Columbia Business School und ehemaliger Direktor des Harvard Solar Geoengineering Research Program [8], kommentierte in einer E-Mail, dass die Absage des Projekts "unglücklich" sei, da es in diesem Sektor bereits eine größere Bedeutung erlangt habe.

Er betonte, dass das Projekt "den Aktionsradius für andere, jüngere Forscher erweitert hat, die sich mit diesem wichtigen Thema befassen". Außerdem habe die Gruppe durch die Veröffentlichung der Pläne in einer von Peer-Review-Fachzeitschrift und durch ihre transparente Arbeitsweise "eine Art Standard für verantwortungsvolle Forschung in diesem Bereich gesetzt". Das Problem: "Selbst verantwortungsbewusste Forscher, die sich entscheiden, diese Art von Forschung nicht zu betreiben, geben indes auch unverantwortlichen Akteuren mit allen möglichen verrückten Ideen reichlich Raum", so Wagner.

Harvard wird Geoengineering weiterhin im Rahmen des Solar Geoengineering Research Program erforschen, einem multidisziplinären Forschungsprojekt, das 2017 mit finanzieller Unterstützung von Microsoft-Mitbegründer Bill Gates, der Hewlett Foundation, der Alfred P. Sloan Foundation und anderen Organisationen und Einzelpersonen eingerichtet wurde. Andere aktuelle oder frühere Projekte umfassen eine Laborstudie über neue Materialien, die möglicherweise für solares Geoengineering verwendet werden könnten – sowie Bemühungen, einige der größeren Herausforderungen bei der Steuerung solcher Instrumente zu identifizieren und zu bewältigen.

Ebenfalls am Montag veröffentlichte der beratende Harvard-Ausschuss des Projekts einen finalen Bericht [9], in dem der von ihm entwickelte Ansatz für die Überwachung des Projekts und die wichtigsten Erkenntnisse dargelegt werden – in der Hoffnung, dass sie in künftige Forschungsexperimente zum Geoengineering einfließen. Das Schriftstück betonte die Notwendigkeit, die Öffentlichkeit frühzeitig einzubeziehen, ihre Bedenken anzuhören und Pläne zu entwickeln, um auf diese zu reagieren.


URL dieses Artikels:
https://www.heise.de/-9659135

Links in diesem Artikel:
[1] https://www.heise.de/hintergrund/Geoengineering-Ballontraum-in-Schweden-zunaechst-geplatzt-6007321.html
[2] https://www.etcgroup.org/content/us-attempting-move-forward-geoengineering
[3] https://www.heise.de/news/Geoengineering-Start-up-hat-angeblich-mit-Freisetzung-von-Partikeln-begonnen-7443692.html
[4] https://news.uchicago.edu/story/david-keith-joins-university-chicago-lead-climate-systems-engineering-initiative
[5] https://www.heise.de/news/MIT-Technology-Review-8-23-Kann-uns-das-Abscheiden-von-CO2-helfen-9348567.html
[6] https://www.heise.de/meinung/Kommentar-Forschung-zum-Solar-Geoengineering-muss-weitergehen-6343174.html
[7] https://royalsocietypublishing.org/doi/10.1098/rsta.2014.0059
[8] https://www.heise.de/hintergrund/Deep-Dive-Was-hinter-solarem-Geoengineering-steckt-7700392.html
[9] https://scopexac.com/finalreport/
[10] https://www.instagram.com/technologyreview_de/
[11] mailto:jle@heise.de

Copyright © 2024 Heise Medien

Adblock test (Why?)

  • 20. März 2024 um 08:00

Isolated Web Apps: Wird die Web-App-Gap ein für alle mal geschlossen?

Von Christian Liebel
Das Web ist zur Heimat vieler Anwendungen geworden, doch es bleibt eine Lücke zwischen Web-Apps und nativen Anwendungen. Können IWAs diese Lücke schließen?
  • 20. März 2024 um 10:48

Wo man in den USA die meisten UFOs sieht

Von heise online
Mann sitzt auf Campingstuhl auf einem Steg unter dem Sternenhimmel

(Bild: mooremedia/shutterstock.com)

US-Forscher haben erstmals knapp 100.000 UFO-Sichtungen geprüft und lokale Faktoren berücksichtigt. So ließen sich gute Beobachtungsbedingungen aufzeigen.

Forscher der University of Utah und des US-Verteidigungsministeriums haben rund 98.000 UFO-Sichtungsberichte des National UFO Reporting Center von 2001 bis 2020 untersucht, um herauszufinden, ob lokale Einflussfaktoren die Zahl der Sichtungsmeldungen erhöhen oder verringern. Mit Hilfe statistischer Methoden berechneten sie dabei, ob es einen Zusammenhang zwischen gemeldeten Sichtungen, Baumbestand, Lichtverschmutzung, häufiger Bewölkung und der geografischen Nähe zu Flughäfen und militärischen Einrichtungen gibt. Ihre Ergebnisse [1]veröffentlichten die Forschenden in der Zeitschrift "Scientific Reports".

In ihrer Untersuchung gehen Richard Medina und seine Kollegen davon aus, dass es natürliche Erklärungen für die Beobachtung merkwürdiger Himmelsphänomene gibt, und "dass es mehr Sichtungen gibt, wenn es mehr Gelegenheiten dafür gibt". Sie berechneten daher, ob es positive Korrelationen zwischen Faktoren wie der Nähe zu Flughäfen oder besonders guten Beobachtungsbedingungen (viel offenes Gelände) gibt.

"Was sehen die Menschen tatsächlich?"

"Die Idee ist, dass es wahrscheinlicher ist, dass man unerklärliche Phänomene am Himmel sieht, wenn man die Chance hat, etwas zu sehen‟, schreiben die Autoren. "Es gibt mehr Technologie am Himmel als je zuvor, also stellt sich die Frage: Was sehen die Menschen tatsächlich?"

Tatsächlich zeigte sich, dass Umweltfaktoren und die Nähe zu Flugverkehr und Militäreinrichtungen die Sichtungsberichte erheblich beeinflussen. Dass die meisten Beobachtungen von unidentifizierten anomalen Phänomenen im amerikanischen Westen stattfindet, hat laut den Autoren also nichts mit erhöhten geheimnisvollen Aktivitäten zu tun, sondern mit offenem Land, dunklem Himmel und Militärstützpunkten. Der einzige Einflussfaktor, der sich nicht eindeutig zuordnen ließ, war häufige Bewölkung: Die These der Forschenden war zunächst, dass das damit einhergehende vermehrte Streulicht auch zu mehr leuchtenden Himmelsphänomenen führen könnte. Nach der statistischen Auswertungen scheint dieser Faktor die Häufigkeit der Sichtungen aber nicht zu beeinflussen.

Die Autoren weisen darauf hin, dass es sich bei den gemeldeten Sichtungen des National UFO Research Centers [2] um Selbstauskünfte handelt. Es gäbe also keine wirkliche Möglichkeit diese Meldungen tatsächlich zu prüfen. Allerdings lasse die Tatsache, dass die Meldungen ein räumliches Muster zeigen, darauf schließen, dass sie wirklich auf irgendeiner Art von Beobachtungen beruhen. In weiteren Untersuchungen wollen die Forschenden nun klären, ob sie auch zeitliche Verläufe – mehr Beobachtungen nach großen Medienberichten über UFOs – oder den Einfluss soziokultureller Faktoren wie Religionen oder der Popularität von Fernsehserien wie "Akte X" [3] in den Daten erkennen können.

Mehr offene Fragen als beantwortete

Berichte über UFO-Sichtungen sorgen besonders in den USA immer wieder für Aufregung. Zuletzt hatte das All-Domain Anomaly Resolution Office [4] (AARO) des US-Verteidigungsministeriums im Februar einen Bericht über die mittlerweile als Unidentified Aerial Phenomena (UAP) bezeichneten Sichtungen vorgelegt [5]. Demnach habe man "keine verifizierbaren Beweise für die Behauptung gefunden, dass die US-Regierung und private Firmen Zugang zu außerirdischer Technologie haben oder solche nachbauen".

Allerdings hinterlässt die US-Regierung bei solchen Veröffentlichungen regelmäßig mehr offene Fragen, als sie – zunächst – beantwortet. Die jahrzehntelangen Spekulationen über ein abgestürztes UFO in Roswell beispielsweise räumte die US-Luftwaffe erst 1994 aus, als sie in einem Bericht zugab [6], dass in der Basis in den 1940er-Jahren ein streng geheimes Programm mit Höhenballons zur Überwachung russischer Atomwaffentests stattgefunden hatte. Auch in dem jetzt vorgelegten Bericht, vermerken Beobachter [7], verweist das Militär auf geheime Forschungsprojekte, ohne zu benennen, was genau erforscht wird.

Die Journalistin Sarah Scoles brachte dieses Vorgehen und seine Konsequenzen in ihrem Buch "They are already here" [8] auf den Punkt: "Die Regierung hat Untersuchungen gestartet, deren Ergebnis vorher feststand, sie hat Schlüsse gezogen, die nicht alle Beweise berücksichtigt. Sie hat interessierte Parteien ausspioniert und sie hat ihre Arbeit geheim gehalten und ihre eigenen Interessen heruntergespielt", schrieb sie. "Damit hat sie eine Kultur der Verschwörungstheorie in der Ufologie herangezüchtet. Ein Bewusstsein dafür, dass die Regierung nicht will, dass bestimmte Fakten bekannt werden".


URL dieses Artikels:
https://www.heise.de/-9659540

Links in diesem Artikel:
[1] https://www.nature.com/articles/s41598-023-49527-x.pdf
[2] https://nuforc.org/
[3] https://www.heise.de/news/Neue-Folgen-von-Akte-X-Ich-will-es-immer-noch-glauben-3084426.html
[4] https://www.aaro.mil/
[5] https://www.heise.de/news/UFO-Abteilung-des-Pentagon-Keine-Beweise-fuer-UFO-Sichtungen-in-US-Dokumenten-9651178.html
[6] https://www.nsa.gov/portals/75/documents/news-features/declassified-documents/ufo/report_af_roswell.pdf
[7] https://www.wired.com/story/questions-pentagon-ufo-report/
[8] https://www.heise.de/hintergrund/Weekly-KI-mal-wieder-ausgetrickst-klimaneutraler-Zement-Aliens-9231839.html
[9] https://www.instagram.com/technologyreview_de/
[10] mailto:wst@technology-review.de

Copyright © 2024 Heise Medien

Adblock test (Why?)

  • 20. März 2024 um 07:15

Weekly: Tretfahrzeug "Hopper" im Test, UFO-Sichtungen, Dune

Von heise online

Ob eine Hinterradlenkung gut für ein dreirädriges Tret-Fahrzeug ist und wo es Hotspots für UFO-Sichtungen gibt, besprechen wir in der neuen Podcast-Folge.

Der Begriff UFO ist ganz schön vorbelastet und weckt sofort gewisse Vorstellungen und Theorien über die Unidentified Flying Objects. Daher setzt die US-Regierung eher auf die Bezeichnung UAP, nämlich Unidentified Aerial Phenomena. Forschende der University of Utah sind das Thema statistisch angegangen und haben untersucht, wo UFO-Sichtungen begünstigt sind und wo die Sichtung erschwert wird [1]. TR-Redakteur Wolfgang Stieler erläutert die Studie und warum, veröffentlichte Untersuchungen den Glauben der "UFO-Community" nur noch mehr befeuern.

Außerdem im Weekly:

  • Mobilität: Das Augsburger Start-up Hopper Mobility hat ein futuristisches Tretfahrzeug entwickelt. Unser Autor Hans Dorsch hat es bereits ein paar Mal gefahren und berichtet über seine Erlebnisse [2].
  • Tipp der Woche: "Dune", die Buch-Reihe und die neuen Filme

Wenn auch ihr, liebe Zuhörerinnen und Zuhörer, mal Empfehlungen habt für Serien, Bücher, Games, Podcasts oder sonstige Medien, die neu oder irgendwie noch nicht zu dem Ruhm gekommen sind, den sie Eurer Meinung nach verdienen, dann schreibt uns doch eine Mail an info@technology-review.de [3] oder lasst Euren Tipp da auf unseren Social-Media-Konten von MIT Technology Review: Wir sind auf Facebook, Instagram, X, LinkedIn, TikTok und ganz neu: auf Mastodon [4] und Bluesky [5]. Oder kontaktiert uns auf Mastodon persönlich: Wolfgang Stieler [6], Gregor Honsel [7], Jenny Lepies [8].

Mehr dazu in der ganzen Folge – als Audio-Stream (RSS-Feed [9]):


URL dieses Artikels:
https://www.heise.de/-9659409

Links in diesem Artikel:
[1] https://www.heise.de/news/Wo-man-in-den-USA-die-meisten-UFOs-sieht-9659540.html
[2] https://www.heise.de/tests/Tret-Fahrzeug-Hopper-Wie-sich-das-e-Bike-mit-Dach-faehrt-9648865.html
[3] mailto:info@technology-review.de
[4] https://social.heise.de/@techreview_de
[5] https://bsky.app/profile/technologyreview.de
[6] https://social.tchncs.de/@wstieler
[7] https://social.heise.de/@ghonsel
[8] https://mstdn.social/@Kultanaamio
[9] https://tech2go.podigee.io/feed/mp3
[10] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[11] https://podcasts.apple.com/de/podcast/tech2go-der-technology-review-podcast/id1511589900
[12] https://www.heise.de/tr/rss/tech2go.rss
[13] https://open.spotify.com/show/5sQ717mamQbJVvvOZT6p2y
[14] https://www.heise.de/thema/mit-technology-review-podcast
[15] https://www.instagram.com/technologyreview_de/
[16] mailto:jle@heise.de

Copyright © 2024 Heise Medien

Adblock test (Why?)

  • 20. März 2024 um 07:00

Dengue-Krise: Brasilien setzt auf bakterieninfizierte Labor-Mücken

Von heise online

(Bild: James Gathany / CDC)

Brasilien steckt aktuell in einer akuten Dengue-Fieber-Krise. Aber das Bakterium Wolbachia sorgt bei übertragenden Mücken für einen praktischen Effekt.

In Brasilien steigt die Zahl der Dengue-Fälle und das Land steht vor einer massiven Krise der öffentlichen Gesundheit. Die von Mücken übertragene Viruserkrankung hat allein dieses Jahr mehr als eine Million Brasilianerinnen und Brasilianer krank gemacht und die Krankenhäuser überlastet.

Die aktuelle Dengue-Krise ist das Ergebnis des Zusammentreffens von zwei Schlüsselfaktoren. Zum einen begünstigt das in diesem Jahr oft feuchte und warme Wetter die Vermehrung der übertragenden Mückenspezies Aedes aegypti. Zum anderen sind in diesem Jahr alle vier Typen des Dengue-Virus im Umlauf, aber nur wenige Menschen haben eine Immunität gegen alle Typen aufgebaut.

Anti-Dengue-Strategie

Doch Brasilien ist dabei, sich zu wehren. Eine der Anti-Dengue-Strategien des Landes zielt darauf ab, die Verbreitung der krankheitsübertragenden Moskitos zu behindern, indem sie mit einem bei Insekten weit verbreiteten Bakterium der Gattung Wolbachia infiziert werden. Das Bakterium scheint die Immunreaktion der Mücken zu verstärken und es Dengue- und anderen Viren zu erschweren, in den Insekten zu wachsen. Das Bakterium konkurriert auch direkt mit den Viren um wichtige Moleküle, die diese zur Replikation benötigen. Menschen befällt Wolbachia nicht.

Das "World Mosquito Program" [1] züchtet mit Wolbachia infizierte Stechmücken in Insektarien und setzt sie in Gemeinden aus. Dort paaren sie sich mit wilden Mücken. Wilde Weibchen, die sich mit Wolbachia-infizierten Männchen paaren, produzieren zwar Eier, diese schlüpfen allerdings nicht. Wolbachia-infizierte Weibchen wiederum bringen Nachkommen hervor, die ebenfalls infiziert sind.

Mit der Zeit verbreiten sich die Bakterien in der gesamten Population. Das größte Insektarium des Programms befindet sich im kolumbianischen Medellín, in dem Tausende von Moskitos in Netzkäfigen herumschwirren. "Wir impfen die Moskitos im Grunde gegen die Übertragung von Krankheiten auf den Menschen", sagt Bryan Callahan, der Direktor für Öffentlichkeitsarbeit.

Bakterien-Infiltration in wenigen Jahren

Das "World Mosquito Program" begann 2014 mit der Freisetzung von Wolbachia-Moskitos in Brasilien. Inzwischen decken die Insekten ein Gebiet mit mehr als drei Millionen Einwohnern in fünf Gemeinden ab: Rio de Janeiro, Niterói, Belo Horizonte, Campo Grande und Petrolina.

In Niterói, einer Gemeinde mit rund 500.000 Einwohnern, die an der Küste direkt gegenüber einer großen Bucht von Rio de Janeiro liegt, wurden 2015 die ersten kleinen Pilotversuche gestartet, und 2017 begann das "World Mosquito Program" mit größeren Einsätzen. 2020 hatte Wolbachia einen Großteil der Mückenpopulation von Niterói infiltriert: Die Prävalenz des Bakteriums reichte von 40 Prozent in einigen Teilen der Stadt bis zu 80 Prozent in anderen.

Als die Forscher das Vorkommen von Viruserkrankungen in den Gebieten, in denen Moskitos freigesetzt worden waren, mit der in einer kleinen Kontrollzone verglichen, die keine Moskitos erhalten hatte, stellten sie einen Rückgang der Dengue-Fälle um 69 Prozent fest. In Gebieten mit Wolbachia-Mücken ging auch die Zahl anderer von Mücken übertragenen Infektionen zurück: Chikungunya-Fälle nahmen um 56 Prozent und Zika-Fälle um 37 Prozent ab.

Niedrige Inzidenz im Untersuchungsgebiet

Wie ergeht es Niterói während der aktuellen Welle? Für ein abschließendes Urteil ist es noch zu früh. Erste Daten sind allerdings ermutigend. Die Zahl der Dengue-Neuerkrankungen (Inzidenz) ist mit 69 bestätigten Fällen pro 100.000 Einwohner eine der niedrigsten im ganzen Bundesstaat. In Rio de Janeiro, einer Stadt mit fast sieben Millionen Einwohnern, gab es mehr als 42.000 Fälle, was einer Inzidenz von 700 pro 100.000 entspricht.

"Niterói ist die erste brasilianische Stadt, die wir vollständig mit unserer Wolbachia-Methode geschützt haben", sagt Alex Jackson, Global Editorial and Media Relations Manager für das "World Mosquito Program". "Die gesamte Stadt ist von Wolbachia-Mücken abgedeckt, weshalb die Dengue-Fälle deutlich zurückgehen."

Das Programm hofft, in diesem Sommer in sechs weiteren Städten Wolbachia-Mücken freisetzen zu können. Allerdings hat Brasilien mehr als 5.000 Gemeinden. Um die Gesamtzahl der Dengue-Fälle in ganz Brasilien zu senken, müsste das Programm Millionen weiterer Moskitos freisetzen. Genau das ist der Plan.

Das "World Mosquito Program" steht kurz vor dem Baubeginn der größten Massenaufzuchtanlage der Welt in Curitiba. "Wir glauben, dass wir damit innerhalb der nächsten zehn Jahre den größten Teil des städtischen Brasiliens abdecken können", sagt Callahan.

Neue Ideen für die Mückenbekämpfung

Neben dem "World Mosquito Program" sind noch eine ganze Reihe weiterer Ansätze auf Moskitobasis in Arbeit. Das britische Unternehmen Oxitec liefert seit 2018 gentechnisch veränderte "freundliche" Moskitoeier nach Indaiatuba in Brasilien. [2] Die Insekten, die daraus schlüpfen – allesamt Männchen –, stechen selbst keine Menschen. Sobald sie sich paaren, überleben ihre weiblichen Nachkommen nicht, was die Populationen reduziert.

Ein weiteres Unternehmen namens Forrest Brasil Tecnologia hat in Teilen von Ortigueira sterile männliche Moskitos [3] ausgesetzt. Wenn sich diese Männchen mit wilden Weibchen paaren, produzieren sie Eier, die nicht schlüpfen. Von November 2020 bis Juli 2022 verzeichnete das Unternehmen in Ortigueira einen Rückgang [4] der Aedes aegypti-Population um 98,7 Prozent.

Darüber hinaus arbeitet Brasilien auch daran, seine Bürger mit einer besseren Immunität [5] auszustatten, indem es den am stärksten gefährdeten Personen einen neuen Impfstoff aus Japan [6] anbietet und gleichzeitig an einem eigenen Dengue-Impfstoff [7] arbeitet.

Keine dieser Lösungen ist eine schnelle Lösung. Aber sie alle geben Anlass zur Hoffnung, dass die Welt Wege finden kann, sich zu wehren, selbst wenn der Klimawandel Dengue-Fieber und andere Infektionen auf neue Höchststände und in neue Gebiete treibt. "Die Fälle von Dengue-Fieber nehmen in alarmierendem Maße zu", sagte Gabriela Paz-Bailey, Spezialistin für Dengue-Fieber bei der US-Seuchenschutzbehörde CDC (US Centers for Disease Control and Prevention) gegenüber der Washington Post. "Es entwickelt sich zu einer öffentlichen Gesundheitskrise und kommt an Orte, an denen es noch nie aufgetreten ist."


URL dieses Artikels:
https://www.heise.de/-9658047

Links in diesem Artikel:
[1] https://www.worldmosquitoprogram.org/en/work/wolbachia-method?gad_source=1&gclid=Cj0KCQjwwMqvBhCtARIsAIXsZpYl6XkczAZdIpynQFzo7D6bFCw2JyI7n9XeYMUerBju4Z6aayArdekaAuulEALw_wcB
[2] https://www.heise.de/hintergrund/Mueckeneier-gegen-Denguefieber-4797143.html
[3] https://pubmed.ncbi.nlm.nih.gov/37187486/
[4] https://pubmed.ncbi.nlm.nih.gov/37187486/
[5] https://www.npr.org/sections/goatsandsoda/2024/03/04/1235795657/dengue-brazil-state-of-emergency-vaccine
[6] https://www.ema.europa.eu/en/medicines/human/EPAR/qdenga
[7] https://www.nejm.org/doi/full/10.1056/NEJMoa2301790
[8] https://www.instagram.com/technologyreview_de/
[9] mailto:office@technology-review.de

Copyright © 2024 Heise Medien

Adblock test (Why?)

  • 19. März 2024 um 07:00

Karriere: Verbinde Projektziele mit persönlichen Zielen

Von Stefan Mintert
Von “oben” vorgegebene Ziele, die offensichtlich nicht erreichbar sind, können frustrieren. Eigene Ziele können dem Frust effektiv entgegenwirken.
  • 19. März 2024 um 15:14

VG Köln: Erste Entscheidung über Entgelte bei offenem Netzzugang rechtswidrig

Von Heise
Ein Verteilerkasten mit Vodafone-Werbung, dahinter die Binnenalster

Ein Vodafone-Verteiler an der Binnenalster in Hamburg.

(Bild: Daniel AJ Sokolov)

Das Verwaltungsgericht hat einem Eilantrag von Vodafone gegen einen Bescheid der Bundesnetzagentur stattgegeben, mit dem diese Open-Access-Gebühren festlegte.​

Bereits die erste Entscheidung der Bundesnetzagentur über Entgelte, die ein Unternehmen von einem Mitbewerber für den Zugang zu seinem öffentlich geförderten Glasfasernetz erheben darf, ist rechtswidrig. Dies hat das Verwaltungsgericht Köln am Montag unter Verweis auf einen Beschluss vom 15. März mitgeteilt. Die Richter folgten damit einem Eilantrag von Vodafone. Ihr Hauptargument: Die Regulierungsbehörde habe gepatzt und voreilige Schlüsse gezogen. Die Entscheidung ist unanfechtbar (Az.: 1 L 2288/23).

Nach Paragraph 155 des Telekommunikationsgesetzes [1] (TKG) müssen Netzbetreiber, die für den Breitbausaubau staatliche Fördermittel genutzt haben, grundsätzlich aktive und passive Zugangsprodukte für Wettbewerber bereithalten. Durch diese Pflicht soll der Wettbewerb auf dem Endkundenmarkt gefördert werden. Einigen sich beide Unternehmen nicht über die vertraglichen Bedingungen dieses offenen Zugangs ("Open Access [2]"), kann die Bundesnetzagentur diese auf Antrag in einem Streitbeilegungsverfahren festlegen.

Erstmals machte die Regulierungsbehörde von dieser Kompetenz am 31. Oktober 2023 Gebrauch. Im Schlichtungsverfahren BK11-23-003 zwischen Vodafone und dem Münchner Anbieter M-net setzte sie monatliche Gebühren je Endkundenanschluss für den Zugang zu einem öffentlich geförderten Glasfasernetz im Main-Kinzig-Kreis fest, das der Düsseldorfer Konzern betreibt. Dazu errechnete die Netzagentur Durchschnittspreise aus bereits vereinbarten monatlichen Entgelten für die Mitnutzung von Glasfasernetzen zwischen Unternehmen in Gebieten Deutschlands, in denen keiner der Beteiligten eine öffentliche Geldspritze in Anspruch nahm.

M-net beklagte zu hohe Gebühren von Vodafone

Zentraler Streitpunkt waren aus Sicht von M-net die von Vodafone zunächst angesetzten Vorleistungsentgelte. Diese seien zu hoch, um auf Endnutzerebene mit Vodafone in den Wettbewerb treten zu können. Die Regulierungsbehörde setzte die Monatspreise im Anschluss mit Preisen zwischen 16,07 Euro netto [3] für einen sogenannten Bitstromzugang mit 100 MBit/s Uplink und 50 MBit/s Downlink und 41,04 Euro bei Bandbreiten von 1000 beziehungsweise 500 MBit/s fest. Gegen die Auflage wehrte sich Vodafone mit dem jetzt gebilligten Eilantrag.

Das Verwaltungsgericht begründete seine Haltung vor allem damit, dass die Entscheidung der Netzagentur formell rechtswidrig sei. Sie habe den Beteiligten nicht hinreichend rechtliches Gehör gewährt. Nach der Auswertung einer Marktabfrage durch die Regulierungsbehörde hatten den Richtern zufolge weder Vodafone noch M-net die Möglichkeit, zu der Frage der Berechnung der Montagsgebühren Stellung zu nehmen.

Das Gericht bewertet die Preisfindung der Bundesnetzagentur als fehlerhaft, da bei der Durchschnittsermittlung Entgelte aus unterschiedlichen Geschäftsmodellen mit variierender Risikoverteilung vermengt worden seien. Die Regulierungsbehörde hätte sich auch nicht auf die Festlegung von monatlichen Überlassungsentgelten beschränken dürfen. Weitere Vertragsbedingungen wie etwa die Frage, ob eine Mindestabnahmemenge besteht oder ob es zusätzlich zum monatlichen Betrag Einmalentgelte gibt, seien aber außenvorgeblieben.

Bundesnetzagentur will den Beschluss gründlich prüfen

Eine Sprecherin der Bundesnetzagentur erklärte gegenüber heise online, man werde die Begründung des Verwaltungsgerichts zunächst prüfen und "danach über die weitere Vorgehensweise entscheiden". Vodafone und M-net reagierten am Montagnachmittag zunächst nicht auf eine Bitte um Stellungnahme.

Das Verfahren wird in der Branche genau beobachtet. Der ursprüngliche Beschluss der Bundesnetzagentur galt als Präzedenzfall für die Linie der Regulierungsbehörde in Streitfällen um Open Access. Marktteilnehmer messen der Auseinandersetzung große Bedeutung auch für künftige vergleichbare Verfahren bei.

Erstmals verdonnerte die Regulierungsbehörde im November 2022 mit der Netcom Kassel einen Betreiber zu einem Open-Access-Angebot [4] für einen Konkurrenten bei einem geförderten Netz. Den entsprechenden Antrag stellte hier das Göttinger Unternehmen Goetel.

Hermann Rodler, Ex-Geschäftsführer Technik beim Münchner Provider M-net, brach schon 2022 eine Lanze für das Open-Access-Modell [5], bei dem Betreiber Konkurrenten mit auf ihr Netz lassen. Dies sei durchaus ein Geschäft. In München kauften bei M-net drei von vier Mobilfunkern Zugang zu unbeschalteten Glasfasern ("Dark Fiber") ein. So komme Verkehr aufs Netz, auch wenn die Margen bei einer Eigenvermarktung größer seien.

Update

Ein Sprecher von M-net hob gegenüber heise online hervor, das Gericht habe noch einmal explizit bestätigt, dass Betreiber öffentlich geförderter Glasfasernetze anderen Telekommunikationsunternehmen Zugang zu diesem Netz gewähren müssten. Angesichts der festgestellten Mängel sei es möglich, dass die Richter im noch laufenden Hauptsacheverfahren zu einem anderen rechtlichen Schluss kommen könnten. Andererseits könnte die Netzagentur einen neuen Entgeltbeschluss fassen, um den erkannten Problemen Abhilfe zu schaffen. Parallel werde M-Netz die laufenden Gespräche zum Abschluss einer Open-Access-Vereinbarung mit Vodafone konstruktiv und lösungsorientiert weiter fortsetzen, um baldmöglichst die notwendige technische Implementierung für die angestrebte Bitstream-Kooperation umsetzen zu können.

Vodafone begrüßt die Entscheidung. "Das Gericht kritisiert zu Recht die Art und Weise, wie die Bundesnetzagentur die Höhe der Entgelte für das Glasfaser-Vorleistungsprodukt im Netz des Main-Kinzig-Kreises festgelegt hat", erklärte ein Sprecher. "Gefördert oder eigenwirtschaftlich – die Kostenstrukturen können je nach Ausbau-Modell sehr unterschiedlich sein. Auch regionale Unterschiede sind zu berücksichtigen." Die Festlegung pauschaler und vor allem zu niedriger Entgelte sei daher nicht zielführend und könne millionenschwere Infrastrukturmaßnahmen zu hochdefizitären Projekten werden lassen. Der Zugang zu Glasfasernetzen via Open Access sei zwar wichtig und richtig, müsse aber kostendeckend erfolgen.


URL dieses Artikels:
https://www.heise.de/-9658542

Links in diesem Artikel:
[1] https://www.gesetze-im-internet.de/tkg_2021/BJNR185810021.html
[2] https://www.heise.de/news/Grosse-Koalition-Kein-eigenstaendiges-Digitalministerium-3962324.html
[3] https://www.roedl.de/themen/kompass-telekommunikation/2023/11/bundesnetzagentur-legt-erstmals-vorleistungsentgelte-fuer-layer-zwei-bitstromzugangsprodukte
[4] https://www.heise.de/news/Glasfaser-und-Foerderung-Bundesnetzagentur-verordnet-erstmals-offenen-Netzzugang-7357458.html
[5] https://www.heise.de/news/Gigabit-Symposium-Die-Energiewende-treibt-die-Migration-zu-Glasfaser-7336712.html
[6] mailto:vbr@heise.de

Copyright © 2024 Heise Medien

Adblock test (Why?)

  • 18. März 2024 um 21:05

Methan-Lecks in den USA sind schlimmer, als bislang angenommen

Von heise online
Gaspipeline

(Bild: INSAGO / Shutterstock.com)

Methanemissionen sind einer der größten Treiber des Klimawandels. Mithilfe neue Technologien und Messungen spüren Forscher die größten Lecks langsam auf.

Alarmierende Ergebnisse sind es, auf die Forscherinnen und Forscher jüngst aufmerksam machen: Die Methanemissionen in den US-amerikanischen Öl- und Gasförderregionen sind in vielen Gebieten deutlich höher als von der US-Regierung geschätzt. Anhand von Messungen aus Flugzeugen haben die Forschenden eine der bisher umfassendsten Untersuchungen hinsichlicht Methan vorgenommen. Die in der Fachzeitschrift Nature veröffentlichte Studie [1] macht deutlich, dass dringend neue und bessere Methoden zur Erfassung des Treibhausgases benötigt werden.

Methanemissionen [2] sind für fast ein Drittel der gesamten bisherigen Erwärmung des Planeten verantwortlich. Zwar entweicht Methan auch natürlich, etwa in Feuchtgebieten [3], doch menschliche Aktivitäten wie die Landwirtschaft und die Produktion fossiler Brennstoffe haben Millionen Tonnen zusätzliches Methan in die Atmosphäre entlassen. Die Methankonzentration hat sich in den vergangenen 200 Jahren mehr als verdoppelt.

Woher kommen die Emissionen genau? Diese Frage ist gar nicht so einfach zu beantworten. Dabei wäre das ein entscheidender erster Schritt zur Verringerung der Emissionen und zur Bewältigung des Klimawandels. Die US-Umweltschutzbehörde schätzt, dass etwa ein Prozent des geförderten Erdöls und Erdgases als Methanverschmutzung in die Atmosphäre entweicht. Zahlreiche [4] Untersuchungen [5] deuten aber daraufhin, dass der tatsächliche Anteil deutlich höher ist.

Mit Technologien wie dem kürzlich gestarteten MethaneSAT-Satelliten [6] und neue Boden- und Lufterhebungen kommen Forscher den Methanlecks zunehmend auf die Schliche. Bei den in der neuen Studie untersuchten Standorten "scheinen die Methanemissionen im Durchschnitt höher zu sein als die Schätzungen der Regierung", sagt Evan Sherwin, Forscher am Lawrence Berkeley National Laboratory, der die Analyse als Postdoktorand an der Stanford University durchgeführt hat.

Leck ist nicht gleich Leck

Die von Sherwin und seinem Team verwendeten Daten stammen aus einer der bisher größten Erhebungen von US-Produktionsstätten für fossile Brennstoffe. Ab 2018 kartierten Kairos Aerospace und das Carbon Mapper Project [7] sechs große öl- und gasproduzierende Regionen, die zusammen etwa 50 Prozent der Onshore-Ölproduktion und etwa 30 Prozent der Gasproduktion in den USA ausmachen. Flugzeuge, die über die Regionen flogen, führten fast eine Million Messungen von Bohrlöchern mithilfe von Spektrometern durch, die Methan mit Hilfe bestimmter Lichtwellenlängen erkennen können.

Hier wird es kompliziert. Methanquellen bei der Öl- und Gasförderung gibt es in allen Formen und Größen. Aus einigen kleinen Bohrlöchern entweicht das Gas langsam über einen langen Zeitraum mit einer Geschwindigkeit von etwa einem Kilogramm Methan pro Stunde. Andere Quellen sind wesentlich größer und stoßen Hunderte oder sogar Tausende von Kilogramm pro Stunde aus, zumeist aber nur für eine kurze Zeit.

Die Flugzeuge, die bei diesen Erhebungen eingesetzt werden, entdecken meist die größten Lecks, die über 100 Kilogramm pro Stunde ausstoßen. Durch die Kombination von Messungen dieser großen Leckstellen mit Modellierungen zur Abschätzung kleinerer Quellen schätzten die Forscher, dass die größeren Lecks für einen übergroßen Teil der Emissionen verantwortlich sind. In vielen Fällen können etwa ein Prozent der Bohrlöcher für mehr als die Hälfte der gesamten Methanemissionen verantwortlich sein, sagt Sherwin.

Einige Wissenschaftler weisen jedoch darauf hin, dass diese und andere Studien durch die verfügbaren Messinstrumente noch immer begrenzt sind. Da die Forscher große Methanlecks aus der Luft gemessen und kleinere Quellen modelliert haben, ist es möglich, dass die Studie die Bedeutung der größeren Lecks überschätzt, sagt Ritesh Gautam, leitender Wissenschaftler beim Environmental Defense Fund, der an der Entwicklung des MethaneSAT beteiligt ist. Er verweist auf mehrere andere aktuelle Studien [8], die zeigen, dass die kleineren Bohrungen einen größeren Anteil an den Methanemissionen haben.

Mehr Daten durch Satelliten

Das Problem sei, dass es im Grunde unmöglich ist, all diese verschiedenen Methanquellen mit nur einem Instrument zu messen. Man bräuchte alle verfügbaren Messtechnologien, um ein klareres Bild zu erhalten, sagt Gautam. Dazu gehören an Türmen angebrachte bodengestützte Geräte, die ein Gebiet ständig überwachen und kleine Emissionsquellen aufspüren können. Zusätzlich müssten Flugzeugen größeres Gebiete per Luftüberwachung abdecken.

Und dann sind da noch Satelliten [9] wie MethaneSAT, der sich in die wachsende Konstellation der Methanerkennungssatelliten einreiht, die die Erde umkreisen. Einige der vorhandenen Satelliten erfassen riesige Gebiete mit einer Detailgenauigkeit von nur wenigen Kilometern. Andere haben eine viel höhere Auflösung und sind in der Lage, Methanemissionen bis auf wenige Dutzend Meter genau zu erfassen. Solche Satelliten seien künftig wichtig, wenn es darum geht, mehr über Methanemissionen in Ländern herauszufinden, die nicht so genau gemessen und kartiert wurden wie die USA, sagt Gautam.

Methanemissionen zu finden und zu verstehen, ist eine Sache. Sie tatsächlich zu bekämpfen eine andere. Nach der Identifizierung eines Lecks müssen die Unternehmen Maßnahmen ergreifen. Sie können defekte Pipelines reparieren oder Entlüftungsöffnungen und Methan-Fackeln [10], die routinemäßig Methan in die Atmosphäre abgeben, schließen. Etwa 40 Prozent der Methanemissionen aus der Öl- und Gasförderung verursachen keine Nettokosten, da das Geld, das durch die Vermeidung von Methanverlusten eingespart wird, nach Schätzungen der Internationalen Energieagentur [11] die Kosten für die Vermeidung von Methanverlusten mehr als ausgleicht.

Mehr als 100 Länder haben sich 2021 dem Global Methane Pledge [12] angeschlossen und sich zum Ziel gesetzt, die Methanemissionen bis zum Ende des Jahrzehnts um 30 Prozent gegenüber dem Stand von 2020 zu senken. Die von der Regierung von US-Präsident Joe Biden angekündigten neuen Vorschriften für Öl- und Gasproduzenten könnten den USA helfen, diese Ziele zu erreichen. Anfang dieses Jahres veröffentlichte die EPA Einzelheiten zu einer vorgeschlagenen Methanabgabe für Unternehmen, die fossile Brennstoffe fördern, die auf der Grundlage des in die Atmosphäre abgegebenen Methanüberschusses berechnet werden soll.


URL dieses Artikels:
https://www.heise.de/-9657696

Links in diesem Artikel:
[1] https://www.nature.com/articles/s41586-024-07117-5
[2] https://www.heise.de/hintergrund/Sensor-an-der-ISS-kartiert-bisher-unentdeckte-CO-und-Methanemissionen-9530577.html
[3] https://www.heise.de/hintergrund/Studie-Feuchtgebiete-geben-bis-zu-1-4-Millionen-Tonnen-mehr-Methan-pro-Jahr-ab-8255812.html
[4] https://www.technologyreview.com/2022/03/28/1048425/permian-basin-methane-emissions/
[5] https://e360.yale.edu/digest/methane-emissions-from-oil-and-gas-exceed-epa-estimates-study-finds
[6] https://www.heise.de/hintergrund/Satellit-fuer-Methan-soll-Lecks-und-grosse-Quellen-entdecken-9051189.html
[7] https://carbonmapper.org/
[8] https://www.nature.com/articles/s41467-022-29709-3
[9] https://www.heise.de/thema/Satellit
[10] https://www.heise.de/news/Abblasen-statt-abfackeln-Satelliten-finden-irrsinnige-versteckte-Methanleaks-8992410.html
[11] https://www.iea.org/reports/global-methane-tracker-2023/strategies-to-reduce-emissions-from-oil-and-gas-operations
[12] https://www.globalmethanepledge.org/
[13] https://www.instagram.com/technologyreview_de/
[14] mailto:jle@heise.de

Copyright © 2024 Heise Medien

Adblock test (Why?)

  • 18. März 2024 um 11:14

"Grünes Licht" für noch Essbares

Von heise online

Forschen gegen Lebensmittelverschwendung: Professor Andreas Schütze (li.) und Christian Bur von der Universität des Saarlandes.

(Bild: Iris Maurer)

EU-Forschende wollen die Verschwendung von Lebensmitteln eindämmen – mit einer Vorratsbox mit Sensor und einem Messgerät für den Supermarkt.

Ist das noch gut oder kann das weg? Den Zustand von Wurst, Käse oder Gemüse zu beurteilen, ist gar nicht so einfach. Ästhetik – das ist mittlerweile bekannt – spielt dabei im Grunde keine Rolle. Nase und Gaumen liefern bessere Hinweise, auf welcher Stufe der Essbarkeitsskala ein Lebensmittel gerade steht. In Zukunft könnte die Bewertung eine neue Messtechnik übernehmen. Zumindest, wenn der Plan von Forschenden im EU-Projekt "Serenade" [1] aufgeht. Ihr Ziel ist, die Verschwendung von Lebensmitteln zu bremsen.

"Wir entwickeln Verfahren, um die Qualität von Lebensmitteln zu überwachen", sagt Andreas Schütze, Messtechnikexperte an der Universität des Saarlandes und am Projekt beteiligt. "Konkret sind dies ein intelligenter Vorratsbehälter, der seinen Inhalt kontrolliert, und ein Messgerät für Supermärkte. Allein dadurch, dass es über die Kisten gehalten wird, soll es genau angeben, wie lange unverpacktes Obst und Gemüse noch essbar sind."

Frische-Vorhersage

Aus einer Luftanalyse über den Lebensmitteln soll das System entsprechende Informationen ziehen, Schlussfolgerungen treffen und dann das Ergebnis auf einem Display anzeigen, zum Beispiel: "noch fünf Tage frisch". Im Supermarkt könnten gefährdete Lebensmittel frühzeitig im Preis reduziert und so noch an den Mann oder die Frau gebracht werden. Die mit Sensoren gespickte Vorratsdose wiederum gebe "grünes Licht", wenn der Inhalt noch bedenkenlos verzehrt werden könne, so Schütze.

Das Projekt wird von der EU mit 1,8 Millionen Euro gefördert. Beteiligt sind zehn Partnerinstitutionen aus Belgien, Deutschland, Italien und Spanien, zudem fünf Unternehmen. Dass soviel Geld, Man- und Womanpower zum Einsatz kommen, ist vermutlich auch der Größe des Problems geschuldet.

Laut dem EU-Amt Eurostat beziffern sich die Lebensmittelverluste in der EU im Jahr 2021 auf 131 Kilogramm Lebensmittelabfälle pro Kopf [2] an. Privathausalte sind mit einem Anteil von 54 Prozent die Hauptverursacher, die Hersteller folgten mit 21 Prozent. Landwirtschaft und Gastronomie sorgen für jeweils neun Prozent der Abfälle und der Handel schlägt mit sieben Prozent zu Buche.

Die Zahlen sind zwar nur bedingt aussagekräftig, da der Begriff Lebensmittelverluste nicht einheitlich definiert und die Datenlage derzeit noch dünn ist. Dass sie zu hoch sind, ist aber unbestritten. Schließlich bedeutet Lebensmittelverschwendung nicht nur wirtschaftliche Einbußen bei Herstellern und Händlern, sondern auch mehr Land- und Energieverbrauch, mehr Düngemittel und Pestizide in der Umwelt.

Gassensoren und KI

Die Technologie aus dem EU-Projekt, die dabei helfen soll, die Verschwendung einzudämmen, ist eine Kombination aus Gassensorsystemen und künstlicher Intelligenz, die Muster in den Ausdünstungen der Lebensmittel erkennt. Denn was Menschen etwa als eklig süßlichen oder erdigen Geruch wahrnehmen, wenn Lebensmittel faulen oder gären, sind Stoffwechselprodukte von Mikroorganismen wie Bakterien, Hefen oder Schimmelpilzen. Beim Zersetzen entstehen gleich eine ganze Reihe flüchtiger, zum Teil übel riechender Stoffe, zum Beispiel Ammoniak, Schwefelwasserstoff, Ethen oder Essigsäure.

"Gerüche hinterlassen in der Luft eine Art persönlichen Fingerabdruck, der sich aus verschiedenen Konzentrationen verschiedener Stoffe zusammensetzt", sagt Christian Bur. "An den individuellen Geruchs-Abdrücken, sogenannten Smellprints, wollen wir den jeweiligen Zustand der Lebensmittel ablesen. Hierfür ordnen wir die einzelnen Smellprints den verschiedenen Zuständen zu."

Die neuen Gassensorsysteme sollen zudem hoch empflindlich sein, selbst einzelne Abbaumoleküle unter Milliarden Luftmolekülen messen können – und auch Gase wie Ethen oder Kohlenstoffdioxid erfassen, die Menschen nicht riechen können. Wer wissen möchte, wie gut die Ideen für die Praxis taugen, muss sich allerdings noch ein bisschen gedulden. Das Projekt ist noch in der Anfangsphase.


URL dieses Artikels:
https://www.heise.de/-9656545

Links in diesem Artikel:
[1] https://serenade-project.eu/
[2] https://ec.europa.eu/eurostat/statistics-explained/index.php?title=Food_waste_and_food_waste_prevention_-_estimates&action=statexp-seat&lang=de
[3] https://www.instagram.com/technologyreview_de/
[4] mailto:anh@heise.de

Copyright © 2024 Heise Medien

Adblock test (Why?)

  • 18. März 2024 um 07:00

Zeit in C++20: Grundlegende Chrono-Terminologie mit Zeitdauer und Zeitpunkt

Von Rainer Grimm
Der Blogbeitrag setzt die Reise durch die grundlegenden Datentypen mit Zeitdauern und Zeitpunkten fort.
  • 18. März 2024 um 11:34
❌