Hussein Alawieh trägt die EEG-Kappe, die die Signale vom Gehirn erfasst und an einen Decoder weiterleitet, der diese Signale interpretiert und in Steuerbefehle für den Computer umsetzt. So kann Alawieh per Gedankenkraft das Computerspiel spielen.
(Bild: University of Texas at Austin)
Mittels EEG-Daten und einem vortrainierten Decoder gelang es ungeübten Testpersonen durch ihre Gehirnsignale, ein Balance- und Rennspiel zu meistern.
Forschende der University of Texas in Austin haben eine Hirn-Computer-Schnittstelle entwickelt, die es auch ungeübten Usern ermöglicht, bereits nach kurzer Zeit nur mit Hilfe ihrer Gedanken ein Computerspiel zu steuern.
Die direkte Steuerung von Computern über entsprechende Schnittstellen (Brain Computer Interfaces, BCI) zieht seit einigen Jahren nicht nur das Interesse von Forschungsgruppen auf sich, sondern auch erhebliche Investitionen privater Geldgeber [1]. Denn die Vision dahinter ist viel weitreichender als nur eine Eingabemöglichkeit für Menschen mit körperlicher Einschränkung: Neuralink-Gründer Elon Musk beispielsweise spekulierte öffentlich über eine "Breitbandverbindung zwischen biologischer und Künstlicher Intelligenz" – und natürlich ist auch das Militär daran interessiert. [2]
Oft verwenden Unternehmen wie Neuralink, die erst kürzlich das Video eines Patienten zeigten, der mit Hilfe des Neuralink-BCI Online-Schach spielte [3], allerdings in das Gehirn eingesetzte Implantate. Die von Hussein Alawieh und Kollegen jetzt in einem Paper vorgestellte Schnittstelle [4] basiert hingegen auf einer EEG-Kappe auf dem Kopf des Users.
Elektroden in der Kappe messen das vom Gehirn erzeugte elektrische Potenzial auf dem Schädel, das entsteht, wenn der User sich bestimmte Körperbewegungen vorstellt. Ein Decoder interpretiert diese Signale und setzt sie in Steuerbefehle für den Computer um. Grundsätzlich ist die Idee nicht neu. Normalerweise erfordern diese Geräte allerdings eine umfangreiche Kalibrierung für jeden Nutzer, denn jedes Gehirn ist anders. Auch das Training des Users selbst ist mühsam, denn ungeübte Nutzer bekommen zu Anfang kaum sinnvolles Feedback von dem Gerät, das der Decoder nur selten sinnvoll auf ihre Hirnaktivitäten reagiert.
Um dieses Problem zu lösen, trainierten die Forschenden den Decoder mit den EEG-Daten eines erfahrenen Users vor. Der "Experte" übte, ein einfaches Computerspiel anzusteuern, bei der die linke und die rechte Seite eines digitalen Balkens ausbalanciert werden musste. Anschließend ließen die Forschenden ungeübte User mit dem vortrainierten Decoder üben. Und zwar nicht nur das Balance-Spiel, sondern auch ein Rennspiel [5] am Computer. Mit Hilfe eines mathematischen Verfahrens passten sie die Parameter des Decoders anschließend an die ungeübten neuen Nutzer an. Beide Aufgaben meisterten 18 Testpersonen ungewöhnlich schnell und erfolgreich.
URL dieses Artikels:
https://www.heise.de/-9676350
Links in diesem Artikel:
[1] https://www.heise.de/hintergrund/Brain-Computer-Interfaces-Investoren-entdecken-das-Gehirn-6660029.html?seite=2
[2] https://www.heise.de/hintergrund/Militaertechnik-Gedanken-lesen-fuer-den-Krieg-4665789.html
[3] https://www.heise.de/news/Neuralinks-erster-Patient-spielt-Online-Schach-mit-Gedankenkraft-9661223.html
[4] https://academic.oup.com/pnasnexus/article/3/2/pgae076/7609232?utm_source=advanceaccess&utm_campaign=pnasnexus&utm_medium=email&login=false_Paer
[5] https://cybathlon.ethz.ch/en/event/disciplines/
[6] https://www.instagram.com/technologyreview_de/
[7] mailto:wst@technology-review.de
Copyright © 2024 Heise Medien
Yuhang Hu (rechts) ist Forscher am Creative Machines Lab der Comlumbia University und Hauptautor der Studie über den lächelnden Roboter Emo.
(Bild: Creative Machines Lab)
Forscher haben einem humanoiden Roboter beigebracht, das Lächeln seiner Gesprächspartner zu antizipieren. Das soll ihn vertrauenswürdiger machen.
Wenn wir mit anderen Menschen Angesicht zu Angesicht kommunizieren, dann geschieht das, teils absichtlich, teils unbewusst, stets mit mehr als nur Sprache: Mit Körperhaltung, Mimik, Blickkontakt und Gesten signalisieren wir unserem Gegenüber, dass wir ihm oder ihr zuhören und welche Emotionen das Gespräch bei uns auslöst. In dieser Hinsicht haben wir Menschen Robotern einiges voraus. Denn obwohl humanoide Roboter immer menschlicher aussehen und sprechen können, sind Interaktionen mit ihnen immer noch ungelenk [1], da ihnen die Mittel der nonverbalen Kommunikation fehlen.
Forscherinnen und Forscher der Columbia University in New York wollen das ändern. "Physische humanoide Roboter haben Schwierigkeiten, mit Mimik zu kommunizieren", heißt es zu Beginn ihrer Studie [2], die vor kurzem im Fachmagazin "Science Robotics" erschienen ist. Das habe zwei Gründe: Erstens sei es nicht einfach, menschliche Gesichtsbewegungen mechanisch umzusetzen – unser Gesicht hat schließlich mehr als 40 Muskeln, mit denen Tausende von Bewegungen möglich sind. Und zweitens müsse eine natürlich wirkende nonverbale Reaktion zum richtigen Zeitpunkt geschehen, idealerweise antizipierend und nicht mit Verzögerung, wie es bei Robotern häufig der Fall ist.
Das Team um den Robotiker Hod Lipson konzentriert sich in seiner Studie auf einen bestimmten Fall der nonverbalen Kommunikation, nämlich auf die "soziale Synchronie". Wenn ein Gesprächspartner beispielsweise lacht oder lächelt, spiegeln wir die Emotion häufig unbewusst zurück, indem wir ebenfalls lächeln. Die Forschenden haben nun versucht, einem humanoiden Roboter namens Emo genau diese Fähigkeit beizubringen: Emo soll antizipieren, wann wir in einer Unterhaltung lachen werden und freundlich zurücklächeln wie es ein Mensch in einer entspannten Unterhaltung tun würde.
Das Gesicht von Emo besteht aus flexiblem Silikon, das mithilfe von Magneten mit 26 unabhängig voneinander arbeitenden Stellmotoren verbunden ist. Dadurch sind deutlich mehr Gesichtsbewegungen möglich als bei vielen bestehenden humanoiden Robotern. "Wir versuchen, die komplexe Bewegung menschlicher Lippen durch eine mechanische Struktur nachzubilden", heißt es in der Studie. Durch passive Gelenke und Verbindungen verformt sich das gesamte Gesicht von Emo seinen Mundbewegungen entsprechend und wirkt dadurch mutmaßlich menschlicher.
Um Emotionen zu erkennen und bei Bedarf zu spiegeln, setzt das Team auf eine Kombination aus Kameras und künstlicher Intelligenz. Die hochauflösenden Kameras in den Augen des Roboters verfolgen die Mimik seines Gegenübers. Sie können selbst kleinste Bewegungen erkennen und somit ein Lächeln bereits in seiner Anfangsstufe antizipieren, etwa wenn sich die Mundwinkel nach oben bewegen. Bei Menschen dauert es etwa 850 Millisekunden, um einen Gesichtsausdruck zu machen. In etwa der gleichen Zeit soll es Emo gelingen, die Mimik aufzunehmen, zu analysieren und die Motoren in seinem Gesicht zu bewegen.
Zwei KI-Modelle kommen zum Einsatz. Zum einen wurde Emo quasi mit sich selbst trainiert: Indem der Roboter sich dabei aufnahm, wie er verschiedene Gesichtsausdrücke machte, lernte er, welche Motoren er für welche Ausdrücke aktivieren musste. Ein zweites Modell wurde parallel dazu mit Aufnahmen von menschlichen Gesichtern trainiert. Dadurch lernte Emo, Lachen zu antizipieren. Schon innerhalb weniger Stunden war der Roboter in der Lage, auch kleinste Gesichtsbewegungen zu interpretieren und darauf zu reagieren.
Mit Emo wollen die Forscherinnen und Forscher aus New York die Kommunikation zwischen Menschen und Robotern natürlicher erscheinen lassen. Vor allem in sozialen Kontexten, etwa bei Robotern in der Pflege [4], ist es wichtig, dass die Menschen den Robotern vertrauen. Eine natürlich wirkende Mimik im Sinne der nonverbalen Kommunikation könne dabei helfen, schreiben die Forschenden. Da ihr Roboter nicht nur reagiert, sondern antizipiert, gehen die Forschung über frühere "KI-Lachsysteme" hinaus [5].
Gleichzeitig wissen die Verantwortlichen, dass ein Roboter wie Emo aller Fähigkeiten zum Trotz immer noch unnatürlich oder gar unheimlich wirken könnte – Stichwort Uncanny Valley [6]. "Wir sind uns bewusst, dass der Maßstab für den Erfolg letztlich ist, wie diese Ausdrücke von menschlichen Benutzern wahrgenommen werden", heißt es im Fazit der Studie. Schaut man sie die Demo-Videos an [7], dann wirkt auch ein vermeintlich menschlicher Roboter wie Emo ziemlich künstlich.
URL dieses Artikels:
https://www.heise.de/-9675482
Links in diesem Artikel:
[1] https://www.heise.de/hintergrund/Robotik-HuggieBot-ist-wie-ein-freundlicher-Fremder-7358326.html
[2] https://www.science.org/doi/10.1126/scirobotics.ado5755
[3] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[4] https://www.heise.de/hintergrund/ChatGPT-im-Pflegeheim-So-schlaegt-sich-der-soziale-Roboter-Navel-9643725.html
[5] https://www.heise.de/news/KI-Lachsystem-Forscher-bringen-Roboter-das-Mitlachen-bei-7264642.html
[6] https://www.heise.de/select/ct/2023/22/2230012165186027072
[7] https://www.youtube.com/watch?v=AQtIXmcGt0g
[8] https://www.instagram.com/technologyreview_de/
[9] mailto:jle@heise.de
Copyright © 2024 Heise Medien
(Bild: AlesiaKan/ Shutterstock.com)
Die Antwort auf diese Frage dürfte über unsere Zukunft mitentscheiden: Google, Meta und andere Konzerne diskutierten über Open-Source-AI.
"Open Source" scheint das neue Modewort in der KI zu sein. Konzerne wie Meta oder Google fühlen sich verpflichtet, quelloffene Sprachmodelle zu entwickeln, während Elon Musk OpenAI verklagt, weil es GPT-4 und seine Nachfolger eben nicht freigeben will. Gleichzeitig gibt es eine wachsende Zahl von Start-ups und Promis aus der KI-Szene, die sich als Open-Source-Verfechter positionieren. Das grundlegende Problem: Niemand kann sich darauf einigen, was "quelloffene KI" überhaupt bedeutet – und das könnte entscheidende Bedeutung für die Zukunft der Branche, womöglich der gesamten Menschheit haben.
Auf den ersten Blick verspricht Open-Source-KI eine Zukunft, in der sich jeder an der Entwicklung modernster Technologie beteiligen kann. Das könnte die Innovation beschleunigen, die Transparenz erhöhen und den Nutzern mehr Kontrolle über Systeme geben, die schon bald viele Aspekte unseres Lebens verändern könnten. Aber was heißt das überhaupt? Was macht ein KI-Modell zu Open Source [1] – und was eben nicht? Solange sich die Technikbranche nicht auf eine Definition geeinigt hat, können mächtige Konzerne das Konzept leicht nach eigenen Bedürfnissen zurechtbiegen – und es könnte sogar zu einem Instrument werden, das die Vorherrschaft der heute führenden Akteure eher festigt als begrenzt.
Die Open Source Initiative (OSI) [2] spielt dabei eine Art Schiedsrichter. Sie gilt als Hüter des quelloffenen Gedankens. Die 1998 gegründete gemeinnützige Organisation hat dazu eine weithin akzeptierten Reihe von Regeln aufgestellt, die bestimmen, ob eine Software als Open Source gelten kann oder nicht. Kürzlich hat die Gruppe ein 70-köpfiges Team an Forschern, Juristen, politischen Entscheidungsträgern, Aktivisten und Vertretern großer Technologiekonzerne wie Meta, Google und Amazon an einen Tisch gebracht. [3] Gemeinsam will man eine Arbeitsdefinition für Open-Source-KI ausarbeiten.
Die Open-Source-Community ist sehr divers. Sie umfasst quasi alle Schichten, vom kleinen Hacktivisten bis zum Fortune-500-Unternehmen. Während man sich bei den übergreifenden Prinzipien weitgehend einig sei, sagt Stefano Maffulli, Geschäftsführer des OSI, werde es immer deutlicher, dass "der Teufel im Detail steckt". Ergo: Bei so vielen konkurrierenden Interessen ist es keine leichte Aufgabe, eine Lösung zu finden, die alle zufriedenstellt – und gleichzeitig garantiert, dass die größten Unternehmen fair mitspielen. Das Fehlen einer eindeutigen Definition hat die Konzerne nämlich kaum daran gehindert, den Begriff zu übernehmen und zu dehnen.
Im Juli vergangenen Jahres hat beispielsweise Meta sein Llama-2-Modell, das der Konzern selbst als Open Source bezeichnet, frei zugänglich gemacht [4] und seither einige weitere KI-Tools auf dieselbe Art publiziert. "Wir unterstützen die Bemühungen der OSI, Open-Source-KI zu definieren", sagt Jonathan Torres, stellvertretender Leiter der Meta-Rechtsabteilung für die Bereiche KI, Open Source und Lizenzierung. Man freue sich darauf, weiterhin an diesem Prozess "zum Nutzen der Open-Source-Gemeinschaft auf der ganzen Welt" teilzunehmen. Das steht wiederum in deutlichem Gegensatz zum Konkurrenten OpenAI, der im Laufe der Jahre immer weniger technische Details über seine führenden Modelle preisgegeben hat [5] und dabei stets Sicherheitsbedenken anführte. "Wir geben leistungsstarke KI-Modelle erst dann frei, wenn wir die Vorteile und Risiken sorgfältig abgewogen haben", sagte ein Sprecher. Das gelte für Missbrauchsmöglichkeiten und Auswirkungen auf die Gesellschaft.
Andere führende KI-Unternehmen wie Stability AI und die deutsche Firma Aleph Alpha [6] haben ebenfalls Modelle veröffentlicht, die als Open Source bezeichnet werden, während Hugging Face eine große Bibliothek frei verfügbarer KI-Modelle anbietet [7]. Bei Google bietet man seine leistungsstärksten Modelle wie Gemini [8] und PaLM 2 eher geschlossen an, hat aber mittlerweile Gemma [9] frei zugänglich gemacht. Es ist so konzipiert, dass es mit Metas Llama 2 mithalten kann. "Open Source" nennt Google Gemma aber nicht, stattdessen sei das Modell "offen", so der Internetgigant.
Es gibt erhebliche Meinungsverschiedenheiten darüber, was hier wirklich offen bedeutet. Zunächst einmal sind sowohl Llama 2 als auch Gemma mit Lizenzen ausgestattet, die die Möglichkeiten der Nutzer einschränken. Das ist ein grundlegender Widerspruch zu den Open-Source-Prinzipien: Eine der Schlüsselklauseln der OSI-Definition verbietet die Auferlegung von Beschränkungen auf der Grundlage von Anwendungsfällen. Und die Kriterien sind selbst für Modelle, die nicht an solche Bedingungen geknüpft sind, eher unscharf. Das Konzept von Open Source wurde schließlich entwickelt, um sicherzustellen, dass Entwickler Software ohne Einschränkungen nutzen, im Quellcode begutachten, verändern und weitergeben können. KI-Systeme funktionieren jedoch grundlegend anders. Schlüsselkonzepte aus der Open-Source-Branche ließen sich daher nicht ohne Weiteres auf Künstliche Intelligenz übertragen, sagt Maffulli.
Eine der größten Hürden ist die schiere Anzahl der technischen Bestandteile, die in den heutigen KI-Modellen enthalten sind. Alles, was man benötigt, um an einer normalen Software herumzubasteln, ist der zugrunde liegende Quellcode. Doch je nach Zielsetzung kann die Arbeit an einem KI-Modell den Zugriff auf das vorab trainierte Modell, seine Trainingsdaten oder den Quellcode zur Vorverarbeitung dieser Daten umfassen. Hinzu kommt der Code für den Trainingsprozess selbst, die dem Modell zugrunde liegende Architektur sowie eine Vielzahl anderer, subtilerer Details. "Welche Bestandteile Sie benötigen, um Modelle sinnvoll zu überblicken und zu verändern, bleibt der Interpretation überlassen. Wir haben aber festgezurrt, welche Grundfreiheiten oder Grundrechte wir ausüben wollen", sagt Maffulli. Doch die Umsetzung sei noch unklar.
Die Klärung dieser Debatte wird von entscheidender Bedeutung sein, wenn die KI-Gemeinschaft die gleichen Vorteile nutzen will, die Entwickler aus "normaler" Open-Source-Software gezogen haben, sagt der OSI-Chef. Diese beruhe auf einem breiten Konsens über die Bedeutung des Begriffs. "Eine [Definition], die von einem großen Teil der Branche respektiert und angenommen wird, schafft Klarheit", sagt er. Und Klarheit bedeute geringere Kosten bei der Einhaltung solcher Open-Source-Vorschriften, weniger Reibungsverluste und ein gemeinsames Verständnis der Technologie. Das Problem: Das reicht wohl nicht. "Der mit Abstand größte Knackpunkt sind die Daten. Alle großen KI-Firmen haben einfach vortrainierte Modelle veröffentlicht, ohne die Datensätze, auf denen sie trainiert wurden." Für diejenigen, die sich für eine strengere Definition von Open-Source-KI einsetzen, schränkt dies die Nutzung deutlich ein. Mancher meint gar, dass dies kein Open Source mehr darstellt.
Andere Mitglieder der Community argumentieren, dass eine einfache Beschreibung der Daten oft ausreicht, um ein Modell zu überblicken. Man müsse es nicht unbedingt von Grund auf neu trainieren, um Änderungen vorzunehmen. Fertige Modelle werden schon jetzt routinemäßig durch einen als Finetuning bekannten Prozess angepasst, bei dem sie teilweise auf einem kleineren, oft anwendungsspezifischen Datensatz zusätzlich trainiert werden. Metas Llama 2 ist ein gutes Beispiel dafür, sagt Roman Shaposhnik, CEO des Open-Source-KI-Unternehmens Ainekko und Vizepräsident für den Bereich Recht bei der Apache Software Foundation, die am OSI-Prozess beteiligt ist. Meta habe zwar nur ein vortrainiertes Modell veröffentlicht, aber eine florierende Community von Entwicklern habe das Modell heruntergeladen, angepasst und ihre Änderungen dann an andere weitergegeben. "Die Leute verwenden es in allen möglichen Projekten. Es gibt ein ganzes Ökosystem um Llama 2 herum", sagt er. "Wir müssen es also umdefinieren. Ist es vielleicht "halb offen?"
Es mag zwar technisch möglich sein, ein Modell ohne die ursprünglichen Trainingsdaten anzupassen. Doch sei es eben nicht im Sinne von Open Source, den Zugang zu einem wichtigen Bestandteil einer Software einzuschränken, meint Zuzanna Warso, Forschungsdirektorin der gemeinnützigen Organisation Open Future, die ebenfalls an der OSI-Definition arbeitet. Es sei auch fraglich, ob man wirklich die Freiheit habe, ein Modell genauer zu studieren, ohne zu wissen, auf welchen Informationen es aufgebaut wurde. "Das ist ein entscheidender Bestandteil des ganzen Prozesses", sagt sie. "Wenn uns Offenheit am Herzen liegt, sollten wir uns auch um die Offenheit der Trainingsdaten kümmern."
Schwer zu verstehen ist es jedoch nicht, warum Unternehmen, die sich selbst als Open-Source-Champions positionieren, nur ungern Trainingsdaten zur Verfügung stellen. Der Zugang zu hochwertigen Trainingsdaten gilt als großer Engpass für die KI-Forschung und ist ein Wettbewerbsvorteil für größere Unternehmen, den sie unbedingt behalten wollen, sagt Warso. Gleichzeitig bietet Open Source eine Reihe von Vorteilen, die diese Unternehmen gerne für ihre KI-Systeme nutzen wollen. Denn oberflächlich betrachtet sei der Begriff "Open Source" für viele Menschen eben positiv besetzt. Es laufe da eine Art "Open Washing" ab, sagt Warso, ähnlich wie beim "Green Washing" durch Konzerne.
Es kann aber auch erhebliche Auswirkungen auf die Profite eines Unternehmens haben. Ökonomen der Harvard Business School haben kürzlich beschrieben, dass Firmen durch Open-Source-Software bislang fast 9 Billionen Dollar an Entwicklungskosten eingespart haben [10], weil sie ihre Produkte auf hochwertiger freier Software aufbauen konnten, anstatt sie von Grund auf selbst zu entwickeln. Für größere Konzerne kann das Open-Sourcing ihrer Software, damit sie von anderen Entwicklern wiederverwendet und geändert werden kann, dazu beitragen, ein leistungsfähiges Ökosystem um ihre Produkte herum aufzubauen, sagt Warso. Das klassische Beispiel sei Googles Open-Sourcing seines mobilen Betriebssystems Android, [11] das Googles dominante Position im Herzen der Smartphone-Revolution zementiert hat. Mark Zuckerberg von Meta wiederum räumt dies ausdrücklich seinen Aktionären gegenüber ein: "Open-Source-Software wird oft zu einem Industriestandard. Und wenn andere Unternehmen ihre Produkte standardisiert mit unserem Stack bauen, wird es für uns wiederum einfacher, neue Innovationen in unsere Produkte zu integrieren."
Entscheidend sei auch, dass Open-Source-KI an einigen Stellen eine günstigere regulatorische Behandlung erfahre, sagt Warso und verweist auf den kürzlich verabschiedeten AI Act der EU [12], der bestimmte Open-Source-Projekte von einigen der strengeren Anforderungen freistellt. Eine Kombination aus einer gemeinsamen Nutzung vortrainierter Modelle durch die Community in Kombination mit einer Zugangsbeschränkung zu den Trainingsdaten sei für viele Unternehmen geschäftlich sinnvoll, meint die Expertin Warso. Aber es hat eben auch einen Beigeschmack: Da will jemand den ganzen Kuchen. Und wenn diese Strategie dazu beiträgt, die ohnehin schon dominante Position großer Technikkonzerne zu festigen, ist es schwer vorstellbar, wie das mit dem zugrunde liegenden Ethos von Open Source zusammenpasst.
"Wir sehen Offenheit als eines der Werkzeuge, um die Machtkonzentration zu bekämpfen", sagt Warso. "Wenn die Definition dazu beitragen soll, diese Machtkonzentration in Frage zu stellen, dann wird die Frage der Daten noch wichtiger". Ainekko-Chef Shaposhnik hält einen Kompromiss für möglich. Ein großer Teil der Daten, die zum Trainieren der größten Modelle verwendet werden, stammt bereits aus offenen Quellen wie Wikipedia oder Common Crawl, das Daten aus dem Internet sammelt und frei zugänglich macht. "Unternehmen könnten die offenen Ressourcen, die zum Trainieren ihrer Modelle verwendet werden, einfach mit anderen teilen." So sei eine vernünftige Annäherung möglich, die es Entwicklern ermögliche, die Modelle zu studieren und zu verstehen.
Doch es gibt ein Problem: Die mangelnde Klarheit darüber, ob das Training nicht Urheber- und Eigentumsrechte von Autoren oder Künstlern verletzt [13]. Das könne zu rechtlichen Komplikationen führen, sagt Aviya Skowron, Leiterin der Abteilung Politik und Ethik bei der gemeinnützigen KI-Forschungsgruppe EleutherAI, die ebenfalls am OSI-Definitionsprozess beteiligt ist. Das lasse Entwickler davor zurückschrecken, offen mit den Daten umzugehen und sorgt für Intransparenz. Stefano Zacchiroli, Professor für Informatik am Polytechnischen Institut in Paris, der ebenfalls an der OSI-Definition mitwirkt, ist sich der Notwendigkeit eines pragmatischen Vorgehens bewusst. Er ist deshalb überzeugt, dass eine vollständige Beschreibung der Trainingsdaten eines Modells das absolute Minimum sei, um es als Open Source zu bezeichnen. "Strengere Definitionen von Open-Source-KI stoßen möglicherweise nicht auf breite Zustimmung."
Letztlich müsse die Community entscheiden, was sie erreichen will, sagt Zacchiroli: "Folgt man einfach der Entwicklung des Marktes, um zu verhindern, dass der Begriff "Open-Source-KI" vereinnahmt wird? Oder versucht man, den Markt zu mehr Offenheit zu bewegen und den Nutzern mehr Freiheiten zu geben?" Doch was ist im KI-Zusammenhang überhaupt der Sinn von Open Source? Es sei fraglich, inwieweit eine Definition von quelloffener KI das Spielfeld einebnen könne, sagt Sarah Myers West, Co-Geschäftsführerin des AI Now Institute. Sie ist Mitverfasserin eines im August 2023 veröffentlichten Papers, in dem die mangelnde Offenheit vieler Open-Source-KI-Projekte aufgezeigt [14] wurde. Darin wird auch hervorgehoben, dass die gigantischen Datenmengen und die notwendige hohe Rechenleistung für das Training kleinen Akteuren Steine in den Weg legen – und zwar unabhängig davon, wie offen die Modelle sind.
Myers West ist überzeugt, dass es auch an Klarheit darüber mangelt, was man mit der Open-Source-Publikation von KI-Systemen zu erreichen hofft. "Geht es um Sicherheit, um die Möglichkeit, akademische Forschung zu betreiben – oder um die Förderung eines stärkeren Wettbewerbs?", fragt sie. "Wir müssen viel genauer wissen, was das Ziel ist, und wie die Öffnung eines Systems die Verfolgung dieses Ziels verändert." Sie befürchtet, dass die OSI diese Diskussion eher meidet. Im bisherigen Entwurf einer Definition werden "Autonomie und Transparenz" als Hauptvorteile genannt, aber Maffulli wollte auf Nachfrage nicht erklären, warum das OSI diese Konzepte für so wichtig hält. Das bislang erreichte Dokument enthält auch einen Abschnitt mit der Überschrift "Fragen, die nicht in diesen Geltungsbereich fallen", der deutlich macht, dass sich die OSI-Definition nicht mit Fragen der "ethischen, vertrauenswürdigen oder verantwortungsvollen" KI befassen will.
Laut Maffulli hat sich die Open-Source-Gemeinschaft in der Vergangenheit darauf konzentriert, den reibungslosen Austausch von Software zu ermöglichen und sich nicht in Debatten darüber zu verzetteln, wofür Software verwendet werden sollte. "Das ist nicht unsere Aufgabe." Doch diese Fragen lassen sich nicht einfach wegwischen, egal, wie sehr man sich im Laufe der Jahrzehnte bemüht hat. Die Vorstellung, dass Technologie neutral ist und Themen wie Ethik "außerhalb des Bereichs" liegen, sei ein Mythos, meint Warso. Sie vermutet, dass dieser Mythos aufrechterhalten werden muss, damit die lose Gemeinschaft der Open-Source-Verfechter nicht zerbricht. "Ich glaube, die Leute wissen, dass [der Mythos] nicht wahr ist, aber es braucht ihn, um voranzukommen."
Außerhalb der OSI haben andere Entwickler einen anderen Ansatz gewählt. Im Jahr 2022 führte eine Gruppe von Forschern die Responsible AI License [15] (RAIL) ein, die Open-Source-Lizenzen ähneln, aber Klauseln enthalten, die bestimmte Anwendungsfälle für KI einschränken. Ziel ist es, so der KI-Forscher Danish Contractor, der die Lizenz mitentwickelt hat, zu verhindern, dass Programmierer KI für Projekte verwenden, die man für "unangemessen" oder "unethisch" halten kann. "Als Forscher würde ich es überhaupt nicht mögen, wenn mein Material in einer Weise verwendet würde, die schädlich für andere ist", sagt er. Und er ist damit nicht allein: Eine kürzlich von ihm und Kollegen durchgeführte Analyse der KI-Hosting-Plattform von Hugging Face [16] ergab, dass 28 Prozent der Modelle bereits RAIL verwenden.
Die Lizenz, die Google seinem Modell Gemma beigefügt hat, verfolgt einen ähnlichen Ansatz. In den Nutzungsbedingungen sind verschiedene verbotene Anwendungsfälle aufgelistet, die als "schädlich" angesehen werden, was das "Engagement für eine verantwortungsvolle Entwicklung von KI" anbetrifft, so das Unternehmen in einem kürzlich veröffentlichten Blogbeitrag [17]. Das Allen Institute for AI wiederum hat ebenfalls seine eigene Auffassung einer offener Lizenzierung entwickelt. Seine ImpACT-Lizenzen [18] schränken die Weiterverbreitung von Modellen und Daten auf der Grundlage potenzieller Risiken ein.
Angesichts der Tatsache, dass sich KI von herkömmlicher Software unterscheidet, ist ein gewisses Maß an Experimentierfreudigkeit mit verschiedenen Graden der Offenheit unvermeidlich und "wahrscheinlich gut für den Bereich", meint Luis Villa, Mitbegründer und Leiter der Rechtsabteilung beim Open-Source-Softwaremanagementunternehmen Tidelift. Er befürchtet jedoch, dass eine Verbreitung von "offenen" Lizenzen, die untereinander nicht kompatibel sind, die reibungsfreie Zusammenarbeit, die Open Source so erfolgreich gemacht hat, zunichtemachen könnte. Dies könnte Innovationen im Bereich der KI verlangsamen, Transparenz verringern und es kleineren Akteuren so erschweren, auf der Arbeit anderer aufzubauen.
Letztlich ist Villa deshalb der Meinung, dass sich die Community auf einen einzigen Standard einigen muss, da die Industrie diesen sonst einfach ignorieren und selbst entscheiden werde, was "offen" bedeutet. Er beneidet die OSI daher nicht. Als die Initiative einst die Definition von Open-Source-Software aufstellte, hatte sie den Luxus der Zeit und wurde von außen kaum beachtet. Heute steht die Künstliche Intelligenz [19] fest im Fadenkreuz sowohl großer Unternehmen als auch der Aufsichtsbehörden.
Wenn sich die Open-Source-Community nicht schnell auf eine Definition einigen kann, werden andere kommen und eine finden, die ihren eigenen Bedürfnissen entspricht. "Die werden dieses Vakuum füllen", sagt Villa. "Mark Zuckerberg wird uns dann allen sagen, was seiner Meinung nach 'offen' bedeutet." Der Mann habe schließlich ein riesengroßes Megafon.
URL dieses Artikels:
https://www.heise.de/-9665378
Links in diesem Artikel:
[1] https://www.heise.de/thema/Open-Source
[2] https://opensource.org/
[3] https://opensource.org/blog/open-source-ai-definition-weekly-update-mar-11
[4] https://www.heise.de/news/Code-Llama-Meta-gibt-KI-fuer-das-Schreiben-von-Code-frei-9284369.html
[5] https://www.heise.de/meinung/OpenAI-ist-jetzt-nicht-mehr-so-open-7622818.html
[6] https://www.heise.de/hintergrund/Tech2go-Podcast-Wie-eine-europaeische-Version-der-KI-GPT-3-aussehen-koennte-6199542.html
[7] https://www.heise.de/news/Hugging-Face-startet-offenes-Robotik-Projekt-9656959.html
[8] https://www.heise.de/news/Bard-ist-tot-es-lebe-Googles-Gemini-9622735.html
[9] https://www.heise.de/news/Ueberraschender-Edelstein-Google-stellt-KI-Modell-Gemma-vor-9634860.html
[10] https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4693148&ref=thestack.technology
[11] https://arstechnica.com/gadgets/2018/07/googles-iron-grip-on-android-controlling-open-source-by-any-means-necessary/
[12] https://www.heise.de/news/AI-Act-Mitgliedstaaten-stimmen-Kompromiss-einstimmig-zu-9617206.html
[13] https://www.heise.de/hintergrund/Wie-sich-Kuenstler-gegen-die-Nutzung-ihrer-Bilder-als-KI-Vorlagen-wehren-7306494.html
[14] https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4543807
[15] https://www.licenses.ai/
[16] https://arxiv.org/pdf/2402.05979.pdf
[17] https://arxiv.org/pdf/2402.05979.pdf
[18] https://allenai.org/impact-license
[19] https://www.heise.de/thema/Kuenstliche-Intelligenz
[20] https://www.instagram.com/technologyreview_de/
[21] mailto:jle@heise.de
Copyright © 2024 Heise Medien
420 Meter misst die Hyperloop-Teststrecke in den Niederlanden.
(Bild: Hardt B.V.)
Sie hat weder Luftschleusen noch Magnetspulen, dafür aber eine Weiche: Was die neu eröffnete Hyperloop-Röhre bei Groningen kann.
In der Nähe von Groningen wurde kürzlich die längste Hyperloop-Teststrecke Europas eröffnet [1]. Dieser Superlativ relativiert sich allerdings, wenn man die absolute Länge betrachtet: 420 Meter. Das reicht nur für Geschwindigkeiten von 75 bis 100 km/h.
Das Besondere an der Stahlröhre des European Hyperloop Center (EHC) [2]: Sie enthält eine Weiche. Weichen sind entscheidend dafür, dass sich nicht nur eine schnelle Punkt-zu-Punkt-Verbindung bauen lässt, sondern ein ganzes Wegenetz. Und bei Magnetschwebebahnen sind Weichen eine notorisch komplizierte Angelegenheit.
Die Weiche des EHC funktioniert ohne bewegliche Teile. "An beiden Seiten der Röhre befinden sich Stahlschienen, die in der Weiche auseinanderlaufen. An den Fahrzeugen gibt es Führungsmagnete für beide Schienen. Je nachdem, welchen Magneten man anschaltet, folgt man der linken oder rechten Spur", erklärt Mars Geuze. Er ist Chief Hyperloop Officer des niederländischen Unternehmens Hardt Hyperloop, das sein System dort als Erstes testen wird.
Die beiden Röhren der Teststrecke laufen y-förmig im spitzen Winkel auseinander. Die Weiche funktioniert also nur in einer Richtung – Züge von einem Arm des Ypsilons können nicht in den anderen Arm abbiegen. Eine T-Kreuzung, auf der man wie bei einem Autobahn-Dreieck von jeder Richtung in jede andere wechseln kann, würde drei solcher y-Weichen erfordern. Wie groß die Weichen ausfallen, hängt von der Geschwindigkeit ab, mit der sie befahren werden sollen. Bei einem Tempo von 200 km/h müssten sie rund 120 Meter lang sein. Bei 700 km/h, wie es Hardt Hyperloop anstrebt, wären es schon 560 Meter.
Wie ein solches Hyperloop-Dreieck in eine Trasse integriert werden könnte, zeigt eine Studie, die Hardt Hyperloop gemeinsam mit der Deutsche Bahn Engineering & Consulting erstellt hat [3]. Es geht dabei um eine Hyperloop-Strecke zwischen Bielefeld und Hannover, mit zwei Abzweigungen bei Hannover.

Ansonsten besteht die Teststrecke des EHC im Wesentlichen aus einer nackten Stahlröhre nebst Vakuum-Pumpen. Luftschleusen gibt es noch nicht, sie sind für ein späteres Upgrade vorgesehen. Das bedeutet: Jedes Mal, wenn ein Testfahrzeug eingesetzt wird, muss die gesamte Röhre acht Stunden lang evakuiert werden. Und solange die Röhre evakuiert ist, gibt es keinen Zugriff auf das Gerät. Die nötige Pumpleistung zur Erzeugung des Grobvakuums von einem Millibar beträgt nach Angaben von Hardt Hyperloop 22 Kilowatt pro Kilometer. Um den Druck zu halten, reiche voraussichtlich 1 kW/km, was aber experimentell noch überprüft werden müsse.
Im Inneren der Röhre sind lediglich einige passive Stahlschienen eingebaut. Alles andere müssen Unternehmen, die ihre Systeme dort testen wollen, selbst einbauen. Beim Konzept von Hardt Hyperloop [6] ist das nicht viel. Es sieht Kapseln für je 40 Passagiere beziehungsweise 12 Europaletten vor, bei denen die Antriebs- und Schwebetechnik im Fahrzeug selbst steckt, nicht im Fahrweg.
Zum Vortrieb interagiert ein Elektromagnet im Fahrzeug mit einer Reihe von Metallpolen an der Schiene, ähnlich wie bei einem Reluktanzmotor [7]. Ins Schweben gebracht werden die Kapseln von Permanentmagneten an Bord, die mit einer laminierten Stahlschiene interagieren. Elektromagneten unterstützen sie dabei und sorgen für die Führung. Die Antriebsleistung bis zur Beschleunigung auf 700 km/h soll 3,3 Megawatt betragen, zur Aufrechterhaltung des Tempos reichen nach Herstellerangaben 665 kW. Den Strom soll eine Batterie mit 640 kWh liefern, die unterwegs induktiv und per Rekuperation aufgeladen werden kann.
42 Wattstunden pro Personenkilometer soll das System laut Hardt Hyperloop verbrauchen (bei 70 Prozent Auslastung auf einer Strecke mit 40 Prozent Beschleunigungs- und Verzögerungsphasen). Ein bis zwei Prozent des gesamten Energiebedarfs gehen dabei auf das Konto der Vakuum-Pumpen.
Zum Vergleich: Ein ICE verbraucht nach Angaben [8] der Deutschen Bahn bei über 200 km/h rund 37 Wh pro Platzkilometer. Bei einer Auslastung von 70 Prozent entspräche das also rund 53 Wh pro Personenkilometer. So groß ist der Unterschied zwischen den Systemen auf den ersten Blick also nicht. Allerdings bezieht sich die Rechnung beim Hyperloop auf ein rund dreimal so hohes Tempo.
Das European Hyperloop Center ist Teil des Hyperloop Development Programs (HDP), einer Public-Private-Partnership mit mehr als 25 Partnern. Das HDP wird unter anderem von der EU-Kommission und der niederländischen Regierung unterstützt. Die EU-Kommission will Hyperloop-Strecken auch in ihr TEN-T [9]-Programm zur Förderung eines effizienten europaweiten Eisenbahnnetzes aufnehmen.
URL dieses Artikels:
https://www.heise.de/-9676370
Links in diesem Artikel:
[1] https://www.heise.de/news/Hyperloop-Forschung-Testcenter-eroeffnet-in-den-Niederlanden-9674751.html
[2] https://www.hyperloopcenter.eu/
[3] https://docs.hardt.global/studies/hanover-bielefeld#321c641b1e2a4f6e8439e463bf195046
[4] https://www.heise.de/bilderstrecke/bilderstrecke_9675296.html?back=9676370;back=9676370
[5] https://www.heise.de/bilderstrecke/bilderstrecke_9675296.html?back=9676370;back=9676370
[6] https://docs.hardt.global/what-is-hyperloop/hyperloop-system-description
[7] https://www.heise.de/hintergrund/E-Mobilitaet-Technik-von-E-Autos-erklaert-7017269.html
[8] https://www.bahn.de/wmedia/view/mdb/media/intern/umc-grundlagenbericht.pdf
[9] https://transport.ec.europa.eu/transport-themes/infrastructure-and-investment/trans-european-transport-network-ten-t_en
[10] https://www.instagram.com/technologyreview_de/
[11] mailto:grh@technology-review.de
Copyright © 2024 Heise Medien
(Bild: Energy.Gov)
In Deutschland werden regelmäßig Forderungen laut, die Kernkraft wieder anzufahren. Im US-Bundesstaat Michigan gibt es dafür nun ein aktuelles Beispiel.
Einem stillgelegten Kernkraftwerk in Michigan könnte dank eines Milliardenkredits des US-Energieministeriums bald ein zweites Leben eingehaucht werden – und nicht nur in den USA, sondern auch in Europa schaut man ganz genau hin. Sollte das Projekt, das insgesamt 1,4 Milliarden Euro kosten soll, gelingen, wäre es das erste AKW in den Vereinigten Staaten, das eine solche Wiedergeburt erlebt. Das Palisades-Kraftwerk wurde bereits am 20. Mai 2022 stillgelegt, nachdem es 50 Jahre lang CO₂-armen Strom erzeugt hatte. Nun hat es mit Holtec International einen neuen Besitzer – und der ist der Ansicht, dass sich die wirtschaftlichen Bedingungen in den letzten Jahren so stark verbessert haben, dass sich ein Neustart lohnt. Geplant ist er bereits bis Ende 2025.
Ein Erfolg wäre ein wichtiger Meilenstein für die US-Atomkraftwerksflotte. Die 800 Megawatt Leistung der Reaktoranlage könnten dazu beitragen, dass das Land seinen Klimazielen näher kommt. Doch die Wiederinbetriebnahme ist technisch aufwendig. Es reicht nicht, einfach einen Schalter umzulegen, auf dass Palisades [1] wieder in Betrieb gehen kann. Es sind noch jede Menge technische, administrative und regulatorische Hürden zu überwinden, bis es soweit ist. Hier die zentralen Punkte.
Einer der Hauptgründe, warum Palisades überhaupt eine Chance hat, wieder in Betrieb zu gehen, ist, die Tatsache, dass der neue Eigentümer des Kraftwerks dies seit Jahren bereits vorgehabt hatte. "Technisch gesehen stehen alle Sterne gut, damit das Kraftwerk in Betrieb gehen kann", sagt Patrick White, Forschungsdirektor der Nuclear Innovation Alliance, einer gemeinnützigen Denkfabrik der Atomwirtschaft. Die Firma Holtec International rüstet eigentlich Kernreaktoren aus und entsorgt verbrauchten Brennstoff. Zudem legt sie auf Wunsch auch bestehende Anlagen still. Ursprünglich war das auch beim Palisades-Kraftwerk geplant, doch nach dem Kauf entschied man sich um. Die Anlagen wurde nicht zerlegt und dekontaminiert – wie etwa andere Projekte der Firma, darunter das Indian Point Energy Center [2] in New York.
Das ist ein Glücksfall. Denn aufgrund der sich ändernden wirtschaftlichen Bedingungen galt der Weiterbetrieb vieler, vor allem kleinerer Kernkraftwerke, eigentlich als nicht mehr zu rechtfertigen. Diejenigen mit einem einzigen, relativ kleinen Reaktor – wie Palisades – waren am stärksten gefährdet. Und wenn ein Kernkraftwerk einmal abgeschaltet ist, kann es schnell schwierig werden, es wieder in Betrieb zu nehmen. Wie bei einem Auto, das auf dem Hof steht, sagt Experte White, "muss man mit gewissen Beeinträchtigungen rechnen". Wartung und Prüfung kritischer Systeme werden reduziert oder fallen ganz aus. Backup-Dieselgeneratoren zum Beispiel müssten etwa regelmäßig überprüft und getestet werden, während ein Reaktor in Betrieb ist, aber nach der Abschaltung eines Kraftwerks würden sie wahrscheinlich nicht mehr auf die gleiche Weise gewartet, sagt er.
Holtec übernahm Palisades im Jahr 2022, nachdem der Reaktor abgeschaltet und der Kernbrennstoff bereits entfernt worden war. Schon damals gab es Forderungen, den fossilfreien Strom des Kraftwerks im Netz zu halten, sagt Nick Culp, Senior Manager für Regierungsbeziehungen und Kommunikation bei Holtec. Das Unternehmen habe dann schnell umgeschaltet und beschlossen, das Kraftwerk offenzuhalten. Die notwendigen Wartungsarbeiten und die Sicherheitsbuchführung seien weitgehend fortgesetzt worden. "Die Anlage sieht so aus, als wäre sie gestern stillgelegt worden", sagt Culp.
Dennoch ist der Aufwand an Zeit und Ressourcen für die Wiederinbetriebnahme der Anlage nicht so groß. Es sei eher ein Neustart nach einem Tank- oder Wartungsstopp als eine Inbetriebnahme einer vollständig stillgelegten Anlage. Nach Abschluss der Wartungsarbeiten und dem Beladen mit frischem Kernbrennstoff kann der Palisades-Reaktor wieder anlaufen und genug fossilfreien Strom für etwa 800.000 Haushalte liefern.
Dennoch kostet das Projekt viel Geld. Der Bundesstaat Michigan hat in den letzten zwei Jahren bereits 276 Millionen Euro für die Wiederinbetriebnahme des Kraftwerks bereitgestellt. Hinzu kommt nun der an Bedingungen geknüpfte Milliardenkredit des US-Energieministeriums in Washington. Holtec muss dafür bestimmte technische und rechtliche Bedingungen erfüllen, um das Geld zu erhalten, das schließlich mit Zinsen zurückgezahlt werden muss. (Details zu den genauen Bedingungen wurden nicht kommuniziert.)
Die staatlichen Mittel und der Kredit aus Washington werden dazu beitragen, die für den Neustart der Anlage erforderlichen Reparaturen und Aufrüstungsmaßnahmen zu finanzieren. Rund 260 Beschäftigte waren auch nach dem Shutdown weiter im Betrieb und sie freuen sich über ihr regelmäßiges Gehalt. Läuft Palisades wieder im Normalbetrieb, sollen etwa 700 Menschen hier arbeiten. Aktuell sucht Holtec nach neuen Mitarbeitern, die beim Neustart helfen.
Eines der größten Fragezeichen im Zusammenhang mit einer möglichen Wiederinbetriebnahme bleibt allerdings die Genehmigung der Aufsichtsbehörden. Denn die US-Atomaufsicht Nuclear Regulatory Commission (NRC) hat bislang keinen genauen Weg für die Wiederzulassung eines eingestellten Kraftwerkbetriebs formuliert. "Wir betreten hier Neuland", kommentiert Jacopo Buongiorno, Professor für Kerntechnik am MIT, der das Projekt beobachtet.
Hinzu kommt: Palisades hat mit der Abschaltung und der Entnahme des Kernbrennstoffs aus dem Reaktor die Betriebserlaubnis praktisch aufgegeben. Holtec muss der NRC nun detaillierte Pläne vorlegen, aus denen hervorgeht, wie das Unternehmen die Anlage künftig in Betrieb nehmen und sicher betreiben will. Das Vorhaben ist dazu bereits angelaufen: Holtec hat den Antrag zur Wiederzulassung des Betriebs bei der NRC im Oktober 2023 formell eingeleitet und plant nun, die restlichen Unterlagen noch in diesem Jahr einzureichen.
Wenn die US-Aufsichtsbehörde und die örtliche Bürokratie dann grünes Licht gibt, soll Palisades schon bis Ende nächsten Jahres wieder in Betrieb genommen werden. Die Versorgung mit Brennelementen ist bereits gesichert. Hinzu kommt: Holtec hat längst langfristige Abnehmer für die volle Leistung des Kraftwerks gefunden, so Culp. Und es geht um einen langen Zeithorizont: Wenn alles läuft, könnte das Kraftwerk noch bis mindestens 2051 – ganze 80 Jahre nach seiner ursprünglichen Inbetriebnahme – Strom erzeugen. Das sollte sich rechnen.
Und Palisades ist ein echter Trend. Die verstärkte Förderung fossilfreier Stromquellen in den USA, insbesondere der Kernenergie, hat bereits dazu beigetragen, dass die Laufzeit älterer Kraftwerke in den USA verlängert werden konnte. "Die Wiederinbetriebnahme eines Kernkraftwerks stellt eine grundlegende Neuerung bei unserer Unterstützung für sauberen Strom dar", sagt Julie Kozeracki, die für das Kreditprogramm des US-Energieministeriums als Senior Advisor arbeitet.
Angst vor der Kernkraft haben die Menschen mehrheitlich nicht. Laut einer Umfrage des Pew Research Centers [3] aus dem vergangenen Jahr befürworten 57 Prozent der Amerikaner sogar mehr Kernenergie im Land. 2016 waren es nur 43 Prozent. Außerdem stehen immer mehr Mittel zur Verfügung, darunter Steuergutschriften in Milliardenhöhe für Kernenergie und andere CO₂-arme Energieträger – im Rahmen des Inflation Reduction Act (IRA) des Demokraten Joe Biden [4]. Die wachsende staatliche Unterstützung sowie die steigenden Strompreise anderer Quellen tragen dazu bei, dass bestehende Kernkraftwerke viel wertvoller seien als noch vor ein paar Jahren, sagt Kerntechniker Buongiorno vom MIT. "Es hat sich alles geändert."
Doch selbst wenn Palisades mit gutem Beispiel vorangeht – eine Welle wieder angefahrener Kernkraftwerke in den USA steht wohl nicht an. Der Grund: fehlende Voraussicht. "Dies ist ein wirklich seltener Fall, in dem jemand sehr vorausschauend gehandelt hat", sagt White von der Nuclear Innovation Alliance. Es gibt aber eine Lösung dafür: Für andere Kraftwerke, die kurz vor der Stilllegung stehen, wäre es billiger, einfacher und effizienter, den Betrieb einfach zu verlängern.
URL dieses Artikels:
https://www.heise.de/-9674056
Links in diesem Artikel:
[1] https://holtecinternational.com/company/divisions/hdi/our-fleet/palisades-power-plant/
[2] https://www.eia.gov/todayinenergy/detail.php?id=47776
[3] https://www.pewresearch.org/short-reads/2023/08/18/growing-share-of-americans-favor-more-nuclear-power/
[4] https://www.heise.de/hintergrund/Industriepolitik-Unklare-Folgen-bei-den-Milliarden-an-US-Investitionen-7489282.html
[5] https://www.instagram.com/technologyreview_de/
[6] mailto:jle@heise.de
Copyright © 2024 Heise Medien
(Bild: Michal Balada/Shutterstock.com)
Vorhänge im Meer sollen das Abschmelzen polarer Gletscher wie dem Thwaites-Gletscher verzögern. Doch diese lokale Geotechnik ist umstritten.
Er ist das derzeit größten Sorgenkind der Klima- und Polarforscher: der Thwaites-Gletscher in der West-Antarktis. Wie ein Pfropfen verhindert er das Abrutschen des Westantarktischen Eisschildes ins Meer. Doch er ist bereits so stark abgeschmolzen, dass er jetzt offenbar kurz vor seinem Kipppunkt seht. Vielleicht ist dieser Punkt sogar schon überschritten [1], wie Computersimulationen vermuten lassen. Dann wäre sein Verschwinden nicht mehr aufzuhalten, selbst wenn die Erderwärmung aufhören sollte. Löst er sich auf, rutscht das gesamte westantarktische Eisschild hinterher. Die Folge: Der Meeresspiegel steigt in den nächsten Jahrhunderten kontinuierlich um 5,3 Meter. [2]
Die sogenannte Erdungslinie, die Stelle, an der sich ins Meer abfließende Gletscher vom Boden abheben, im Meerwasser aufschwimmen und tauen, verschiebt sich unter dem Thwaites nämlich immer weiter zurück in Richtung Ufer. Das passiert, weil warmes Ozeanwasser die ins Meer reichende Gletscherzunge, das Schelfeis, unterspült und von unten her wegtaut. Die Schelfeisplatte kommt früher ins Schwimmen und bricht ab.
Dem Glaziologen Michael Wolovick kam 2016 die Idee, mit einem am Boden verankerten Vorhang, der von Auftriebskörpern in der Senkrechten gehalten wird, dem warmen Wasser den Zugang zu versperren. Damals arbeitete er noch an der Princeton Universität in New Jersey, inzwischen forscht er in Bremerhaven am Alfred-Wegener-Institut für Polar- und Meeresforschung. Das Vorhang-Konzept verfolgt er allerdings nur noch nebenbei weiter.
Aufgegriffen hat diese Idee John Moore, Glaziologe am Arktischen Zentrum der Universität von Lappland im finnischen Rovaniemi und heute der Hauptverfechter des Plans. Er untersucht seit 2018, wie und ob sich so ein lokales Geoengineering verwirklichen lässt.
Vor einem Jahr veröffentlichten Michael Wolovick und John Moore zusammen mit Bowie Keefer von der Universität von British Columbia in Vancouver eine detaillierte Machbarkeits- und Kostenstudie [3] für einen 80 Kilometer langen Vorhang der vom Meeresgrund in 600 Metern Tiefe 100 bis 250 Meter hoch reicht. Er soll das warme Tiefenwasser zurückhalten, es aber dem kalten ozeanisches Zwischen- und Oberflächenwasser ermöglichen, über den Vorhang hinweg zu strömen. Auch abgebrochene, kleinere und flachere Eisberge können darüber hinweg ins offene Meer treiben.
Dieser Kunststoffvorhang soll mindestens 25 Jahre halten, um dann während der nächsten Jahrzehnte oder auch Jahrhunderte immer wieder erneuert zu werden.
Das Abschmelzen des Thwaites-Gletschers, lässt sich dadurch natürlich nicht verhindern, aber die Menschheit hätte die Chance, Zeit für den Um- und Rückbau der Küstenstädte überall auf der Erde zu gewinnen, ist Moore überzeugt. Er kann sich ähnliches auch für grönländische Gletscher [4] vorstellen.
Billig wäre so eine Geo-Ingenieurskonstruktion zwar nicht, aber um Größenordnungen preiswerter, als die globale Küstenlinie Stück für Stück gegen Überflutungen zu sichern. Das wäre nämlich unvermeidlich, um mit dem Meeresspiegelanstieg durch abgeschmolzene Gletscher mitzuhalten.
Die Installation vor Thwaites würde nach den Berechnungen der Forscher 40 bis 80 Milliarden US-Dollar kosten, der Unterhalt pro Jahr dann ein bis zwei Milliarden. Ein globaler Küstenschutz dagegen käme in jedem Jahr auf ungefähr 40 Milliarden US-Dollar, berechneten die Forscher.
So einleuchtend der Plan, so heikel sind aber die technischen Herausforderungen und so unberechenbar die Reaktionen der natürlichen Umwelt.
Der nächstgelegene Standort für die Herstellung eines solchen Vorhangs wäre Punta Arenas an der Magellanstraße im äußersten Süden Chiles. Von dort müssten leistungsstarke Eisbrecher die großen schwimmenden Module über 2500 Kilometer durch den Ozean südlich von Kap Hoorn und durch die Meereisschollen und Eisberge der vielerorts oft unzugänglichen Amundsen-See vor den Gletscher schleppen. Überdies sind die Taucherarbeiten in diesen Gewässern herausfordernd.
Weitgehend unklar bleibt sogar in der Machbarkeitsstudie, wie der Vorhang die Meeresströmungen und die jahreszeitliche Schichtung der Wasserkörper in der Bucht ändert, in die der Gletscher mündet. Nach Meinung des Polar-Ozeanographen Lars Smedsrud von der Universität Bergen in Norwegen, der in einem Nature-Beitrag [5] zitiert wird, würde die Idee die Erwärmung des Ozeans nicht verhindern, sondern nur die lokale Erwärmung an den Gletscherausläufen reduzieren. "Der Ozean würde sich anderswo stärker aufheizen und dort vielleicht mehr Schaden anrichten."
Bedenken gibt es auch von Biologen. Der Vorhang könnte den Nährstofftransport zwischen Gletscher und Meer blockieren und so Ökosysteme verschieben. Außerdem müsse man damit rechnen, dass der Vorhang bewächst, sagt Meeresbiologe Ulf Riebesell vom Geomar Helmholtz-Zentrum für Ozeanforschung in Kiel gegenüber der Neuen Zürcher Zeitung [6]. "Das schafft ein neues Ökosystem, das da nicht hingehört". Die neuen Organismen würden mit den natürlichen Lebensgemeinschaften um Nahrung konkurrieren.
Schon 2018 hatten sieben namhafte Polarforscher um Twila A. Moon vom National Schnee- und Eis-Datenzentrum der Universität of Colorado in Boulder die Vorhang-Idee scharf kritisiert [7]. Ihr Resümee: "Wir sind der Meinung, dass die begrenzten Mittel, die zur Verfügung stehen, stattdessen dazu verwendet werden sollten, die Ursachen für den beschleunigten Eisverlust zu bekämpfen – nämlich Emissionen und den vom Menschen verursachten Klimawandel."
Auch wenn es wohl noch Jahrzehnte dauern wird, bis so ein Vorhang einsatzbereit ist, begannen Forscher am Zentrum für Klimareparatur der Universität Cambridge [8] schon mit Tests von Vorhangmaterialien in Wassertanks, wie Moore dem Magazin "Business Insider" berichtete [9]. Sobald die Testvorhänge ihre Funktionalität bewiesen hätten, würden man sie ab Sommer 2025 am Boden des Flusses Cam in England verankern und auch hinter Booten herziehen, um ihre Strömungsfestigkeit zu prüfen.
URL dieses Artikels:
https://www.heise.de/-9669311
Links in diesem Artikel:
[1] https://doi.org/10.1038/s41558-023-01818-x
[2] https://doi.org/10.1038/s41558-023-01818-x
[3] https://academic.oup.com/pnasnexus/article/2/3/pgad053/7089571?login=false
[4] https://www.arcticcentre.org/news/Preventing-ice-sheet-collapse-by-seabed-anchored-curtains-in-Greenland-taking-steps-forward/39649/e47ec275-1180-401a-bdd8-800c3009dfab
[5] https://www.nature.com/articles/d41586-024-00119-3
[6] https://www.nzz.ch/wissenschaft/vorhaenge-sollen-gletscher-der-antarktis-vor-warmem-wasser-schuetzen-ld.1776512
[7] https://www.nature.com/articles/d41586-018-04897-5
[8] https://www.climaterepair.cam.ac.uk/refreeze
[9] https://www.businessinsider.com/antarctica-thwaites-doomsday-glacier-melting-collapse-flooding-curtains-2024-3?r=US&IR=T
[10] https://www.instagram.com/technologyreview_de/
[11] mailto:jle@heise.de
Copyright © 2024 Heise Medien
Die Laura Maersk, das weltweit erste mit Methanol betriebene Containerschiff, wird getauft.
(Bild: EU-Kommission)
Bis 2050 will die Schifffahrt klimaneutral werden. Dazu muss die Branche lernen, mit ganz neuen Treibstoffen umzugehen.
Der Schiffsverkehr trägt rund drei bis vier Prozent zu den weltweiten menschengemachten Treibhausgasemissionen bei. Die International Maritime Organization, eine Sonderorganisation der UN, will die Emissionen bis 2050 auf null senken [1]. Um das zu erreichen, kommen derzeit vor allem Methanol [2] und Ammoniak [3] als Treibstoff in Frage, wie das Magazin MIT Technology Review in seiner aktuellen Ausgabe 3/2024 [4] berichtet.
Bei voller Fahrt können die Zweitakt-Diesel großer Containerschiffe täglich mehrere Hundert Tonnen Schweröl verbrennen. Dass sich diese Energiemengen nicht in Batterien speichern lassen, liegt auf der Hand. Es bleiben also nur chemische Energieträger, synthetisch oder biologisch erzeugt. Doch welcher davon?
Die Richtung gab die dänische Reederei Maersk praktisch im Alleingang vor. 2023 nahm sie den weltweit ersten Methanol-Containerfrachter in Betrieb: die Laura Maersk [5], mit etwas über 2.000 Containern ein eher kleines Schiff. Kurz darauf folgte mit der Ane Maersk das zweite Schiff, diesmal für 16.000 Container. Zwei Dutzend weitere Frachter hat Maersk bereits geordert.
Methanol ist flüssig und kann in normalen Tanks gebunkert werden. Entsprechend niedrig ist der Aufwand, ein Schiff umzurüsten. Um Methanol klimaneutral zu synthetisieren, ist allerdings nicht nur grüner Wasserstoff [6] nötig, sondern auch Kohlenstoff. Dessen Gewinnung braucht viel Energie. Ammoniak hingegen benötigt neben Wasserstoff nur Stickstoff, der relativ einfach aus der Luft gewonnen werden kann. Entsprechend effizienter und preiswerter ist die Herstellung.
Als Schiffsantrieb bringt Ammoniak allerdings auch einige Nachteile mit sich. Es ist ein stechend riechendes Gas und hochgiftig. Also muss die Besatzung durch doppelwandige Behälter und Rohre geschützt werden. Eine weitere Herausforderung: Entweicht unverbranntes Ammoniak in die Atmosphäre, entsteht Lachgas daraus, ein 300-mal stärkeres Treibhausgas als Kohlendioxid.
Das MAN Research Center in Kopenhagen arbeitet derzeit an der Umrüstung herkömmlicher Zweitakt-Diesel auf Ammoniak. Dafür wird der gesamte Zylinderkopf ausgetauscht, im Einzelfall auch weitere Teile des Motors. Den ersten erfolgreichen Probelauf mit Ammoniak meldete MAN im Juli 2023. 2026 will MAN die erste Maschine auf den Markt bringen. Der Schweizer Konkurrent WinGD arbeitet ebenfalls an einem Ammoniakmotor. Die ersten beiden Maschinen sollen ab 2026 Tanker der belgischen Reederei Exmar antreiben. Ein Massengutfrachter soll folgen. Und auch der finnische Motorenbauer Wärtsilä hat einen Ammoniak-Motor angekündigt – allerdings als Viertakter, die vor allem bei kleineren Frachtern, Fähren und Passagierschiffen vorkommen.
Rund 23.000 Schiffe mit MAN-Zweitaktern seien derzeit in Betrieb, teilt der Konzern mit. Bei etwa 1900 davon sei eine Umrüstung technisch und wirtschaftlich sinnvoll. Das sei zwar nur ein kleiner Bruchteil der Flotte, aber selbst dies könne jährlich immerhin 80 Millionen Tonnen CO2 einsparen.
MAN erwartet, dass 2030 etwa 40 Prozent der georderten Leistung bei den Zweitaktmotoren auf Ammoniak entfallen werden, gefolgt von Methanol (35 Prozent) und LNG (23 Prozent). Das zeigt: Ein "The-Winner-takes-it-all"-Szenario, bei dem ein Treibstoff irgendwann so dominant sein wird wie heute das Schweröl, ist nicht in Sicht.
Für die Schifffahrt würde der gesamte absehbare Output an grünem Methanol und Ammoniak reichen, schätzt die Klassifizierungsgesellschaft DNV [12]. Allerdings seien 30 bis 40 Prozent aller klimaneutralen Treibstoffe weltweit nötig, um allein die Ziele für 2030 zu erreichen. Zudem sind Luftfahrt, chemische Industrie und Düngerhersteller an den gleichen Ressourcen interessiert. Ohne massive Investitionen in die Kraftstoffproduktion wird es also nicht gehen.
Allein bei Maersk kommen zweistellige Milliardensummen für die gestiegenen Treibstoffkosten zusammen – pro Jahr. Auf dem Weg durch die Wertschöpfungskette "verwässere" sich aber der Preisaufschlag, sagte Maersk-Vizepräsident Morten Bo Christiansen auf einem TED-Talk [13]. "Wenn man den Spritpreis verdoppelt, klingt das erst einmal dramatisch. Die Frachtkosten steigen dadurch aber nur um 10 bis 15 Prozent. Und für ein Paar Schuhe bleiben davon dann vielleicht noch fünf Cent übrig."
URL dieses Artikels:
https://www.heise.de/-9674269
Links in diesem Artikel:
[1] https://www.heise.de/hintergrund/Ziel-der-UN-Schifffahrt-soll-bis-2050-keine-Emissionen-mehr-freisetzen-9216754.html
[2] https://www.heise.de/hintergrund/Neue-Kraftstoffe-neue-Antriebe-Wie-die-Schifffahrt-klimaneutral-werden-kann-6347296.html
[3] https://www.heise.de/news/Treibt-Ammoniak-die-Schiffe-der-Zukunft-an-9350021.html
[4] https://shop.heise.de/mit-technology-review-03-2024/print?wt_mc=intern.shop.shop.tr_2403.t1.textlink.textlink
[5] https://www.heise.de/news/Alternative-Kraftstoffe-Erstes-Containerschiff-faehrt-auch-mit-Methanol-9306131.html
[6] https://www.heise.de/news/Studie-Heimischer-Wasserstoff-guenstiger-als-Import-per-Schiff-9207711.html
[7] https://www.heise.de/select/tr/2024/3/2405207123781369118
[8] https://www.heise.de/select/tr/2024/3/2405207582989865137
[9] https://www.heise.de/select/tr/2024/3/2405208074783443934
[10] https://www.heise.de/select/tr/2024/3/2405208042451913129
[11] https://shop.heise.de/mit-technology-review-03-2024/print?wt_mc=intern.shop.shop.tr_2403.dos.textlink.textlink
[12] https://www.dnv.com/maritime/publications/maritime-forecast-2023/
[13] https://www.ted.com/talks/morten_bo_christiansen_the_first_ever_cargo_ship_powered_by_green_fuel
[14] https://www.heise.de/select/tr/2024/3/2405209423574808997
[15] https://shop.heise.de/mit-technology-review-03-2024/print?wt_mc=intern.shop.shop.tr_2403.t1.textlink.textlink
[16] https://www.mykiosk.com/suche/91485
[17] https://www.instagram.com/technologyreview_de/
[18] mailto:grh@technology-review.de
Copyright © 2024 Heise Medien
(Bild: Gorodenkoff / Shutterstock.com)
Viele Patienten, die an schädlichen nächtlichen Atemaussetzern leiden, lehnen die Standardbehandlung mit Beatmungsgeräten ab. Ihnen sollen Wirkstoffe helfen.
Wer unter obstruktiver Schlafapnoe leidet, also langanhaltenden nächtlichen Atemaussetzern, bekommt oft ein Beatmungsgerät mit Maske ans Bett gestellt. Das sogenannte CPAP-Gerät pumpt Luft in die Atemwege, um sie offenzuhalten. Sonst würde die bei diesen Patienten nachts zu stark erschlaffende Rachenmuskulatur der oberen Atemwege die Luftzufuhr periodisch verschließen. Das Beatmen soll ernste Folgeschäden der Schlafapnoe [1] verhindern. Betroffene fühlen sie sich nicht nur tagsüber wie gerädert, nicken oft kurz ein und haben Konzentrationsprobleme. Auf Dauer steigt auch ihr Risiko für Krankheiten wie Bluthochdruck, Diabetes, Schlaganfälle, Herzinfarkte und Depression.
Allerdings lehnen Schätzungen zufolge 40 bis 60 Prozent der Patienten die Beatmungsbehandlung ab oder benutzen sie zu wenig. Sie kann unbequem und schwer zu akzeptieren sein. Deshalb entwickeln Pharma-Unternehmen Medikamente für die Behandlungen der obstruktiven Schlafapnoe.
Apnimed aus den USA will nun mit der Kombination aus zwei Wirkstoffen – Aroxybutynin und Atomoxetin – verhindern, dass die Rachenmuskulatur nachts erschlafft und die Atemwege teilweise (Hypopnoe) oder ganz verschließt (Apnoe). In einer klinischen Phase-2-Studie [2] senkte der abends eingenommene Doppelwirkstoff "AD109" die Zahl der Apnoe- und Hypopnoe-Ereignisse (Apnoe-Hypopnoe-Index, kurz AHI) im Verlauf von einem Monat deutlich: im Schnitt um 45 Prozent im Vergleich zu einem Placebomittel.
Bei fast der Hälfte der AD109-Probanden halbierte das Kombimittel den AHI-Wert sogar, oder senkte ihn noch stärker. Parallel dazu verringerte sich auch die Tagesmüdigkeit bei vielen Probanden. Die Ergebnisse wurden Ende letzten Jahres im "American Journal of Respiratory and Critical Care Medicine" veröffentlicht.
Weltweit leiden mehr als 936 Millionen Menschen an obstruktiver Schlafapnoe [3]. In Deutschland gibt es 26 Millionen Betroffene. Bei milden Fällen erleiden sie pro Stunde fünf bis 15 Apnoe- und Hypopnoe-Ereignisse vor (Apnoe-Hypopnoe-Index, kurz AHI). Bei der moderaten Form sind es 15 bis 30 und in schweren Fällen mehr als 30.
Das Gehirn der Betroffenen erhält dann zu wenig Sauerstoff, und der Kohlendioxidlevel in ihrem Blut steigt an, weil das Gas nicht abgeatmet wird. Letzteres löst eine Art Alarm aus, der Körper schüttet Stresshormone aus und steigert die Pulsrate, damit man aufwacht. Ganz munter werden die Betroffenen meist nicht, trotzdem zerhacken solche Stressreaktionen den Schlaf und verhindern die Erholung.
Insgesamt wurden in Apnimeds doppelt-verblindeten Studie 211 Patienten mit schwerer bis milder Schlafapnoe randomisiert, also zufällig in vier Gruppen eingeteilt: Zwei Therapiegruppen erhielten AD109 in verschiedenen Konzentrationen, eine dritte Therapiegruppe bekam nur den Wirkstoff Atomoxetin und die letzte Gruppe erhielt ein Placebomittel.
Über alle drei Therapiegruppen hinweg senkte die medikamentöse Behandlung die Zahl der Atemaussetzer und -störungen teilweise selbst bei schwerer Schlafapnoe auf weniger als zehn Ereignisse pro Stunde: Bei milden Fällen gelang das bei 77 Prozent der Probanden, bei moderater Schlafapnoe bei 42 Prozent und bei der schweren Form bei sieben Prozent. Inzwischen hat Apnimed die erste von zwei geplanten Phase-3-Studien mit jeweils 640 Patienten gestartet. Erste Ergebnisse werden bis Mitte 2025 erwartet.
Schlafforscher Albrecht Vorster vom Universitätsspital Bern hält den Trend zu Schlafapnoe-Medikamenten für "interessant", sieht darin allerdings nur eine kurzfristige Lösung, da lediglich Symptome behandelt würden. Entscheidend sei, "ursächlich zu therapieren", um das Verschreiben einer CPAP-Maskentherapie zu vermeiden [4].
So sind am häufigsten Fetteinlagerungen im Rachengewebe, die bei Übergewicht entstehen, die Ursache für eine obstruktive Schlafapnoe. In diesem Fall wäre die Empfehlung eine Gewichtsreduktion, also eine Verhaltensänderung. Auch Alkohol, Rauchen, Stress, ungenügende Muskelkraft im Rachengewebe und Schlafen in der Rückenlage können das Risiko für Schlafapnoe erhöhen und stellen Ziele für Verhaltensänderungen dar.
Bisher gibt es noch kein Schlafapnoe-Medikament auf dem Markt. Ärztinnen und Ärzte versuchen seit Jahrzehnten, mit Off-label-Anwendungen von existierenden Mitteln, also abseits ihrer ursprünglichen Einsatzgebiete, Verbesserungen bei der obstruktiven Schlafapnoe zu erzielen. Ausprobiert wurden bereits verschiedene Antidepressiva wie Serotonin-Wiederaufnahmehemmer, Atemstimulantien, inhalierbare Kortikosteroide, Narkolepsie-Mittel und Nikotinprodukte. Keines der Wirkstoffe hatte eine überzeugende Wirkung, viele lösten ernste Nebenwirkungen aus.
Als häufigste mildere Nebenwirkungen hat Apnimed für sein höher dosiertes Kombipräparat AD109 trockenen Mund (59 Prozent), Schlaflosigkeit (22 Prozent) und Probleme beim Wasserlassen (22 Prozent) gemeldet. Beim Einzelpräparat trat Schlaflosigkeit am häufigsten auf (27 Prozent). Schwerwiegende Nebenwirkungen meldete Apnimed nicht.
Auch das australische Pharma-Unternehmen Incannex arbeitet an einer als Tablette verabreichbaren Wirkstoffkombination zweier existierender Mittel. IHL-42X enthält eine synthetische Form von Tetrahydrocannabinol (THC) namens Dronabinol, sowie Acetazolamid. Dronabinol soll die Rachenmuskeln aktivieren [5], damit sie die Atemwege öffnen. Der Enzymhemmer Acetazolamid wiederum lässt den Körper früher auf die steigende Kohlendioxidmenge im Blut reagieren, damit keine Atemaussetzer entstehen.
Das Kombipräparat senkte in einer kleineren Phase-2-Studie [6] mit 44 Patienten die Zahl der Schlafapnoe-Ereignisse um bis zu 80 Prozent. Absolute AHI-Werte nennt das Unternehmen nicht, so dass sich die Wirkung nicht ausreichend beurteilen lässt. Immerhin hat inzwischen auch Incannex ein größere, beschleunigte Phase-2/3-Studie mit mehr als 500 Patienten [7] gestartet, um die Kombiwirkung genauer zu untersuchen.
Diskutiert werden darüber hinaus als Diabetes-2-Medikation gestartete und inzwischen verstärkt auch zur Gewichtsreduktion verschriebene Mittel wie Wegowy und Ozempic. Ihre neue Karriere hat Hoffnungen geweckt, dass sie auch bei Schlafapnoe helfen könnten – zumindest dann, wenn Übergewicht der Auslöser ist und solange sie injiziert werden.
Noch ganz am Anfang stehen Versuche mit ausschließlich lokal wirksamen Nasensprays wie der von australischen Forschern von der Flinders University in Adelaide [8], der die Rachenmuskeln über sogenannte Kaliumkanäle aktivieren soll. Das würde theoretischen systemischen Nebenwirkungen vermeiden helfen, muss aber noch in größeren Studien untersucht werden.
URL dieses Artikels:
https://www.heise.de/-9669475
Links in diesem Artikel:
[1] https://www.heise.de/hintergrund/Schlafstoerungen-Wearables-koennen-bei-der-Diagnose-helfen-7491780.html
[2] https://www.atsjournals.org/doi/10.1164/rccm.202306-1036OC
[3] https://investors.resmed.com/investor-relations/events-and-presentations/press-releases/press-release-details/2019/The-Lancet-Publishes-More-Than-936-Million-Have-Obstructive-Sleep-Apnea-Worldwide/default.aspx
[4] https://www.heise.de/hintergrund/Wearables-statt-Schlaflabor-Die-Technik-fuer-einen-gesunden-Schlaf-7489262.html
[5] https://www.incannex.com/clinical-trail/ihl-42x-osa/
[6] https://www.globenewswire.com/news-release/2023/12/06/2791681/0/en/Incannex-Update-on-IHL-42X-Drug-Candidate-in-Phase-2-3-Clinical-Trial-in-Obstructive-Sleep-Apnea.html
[7] https://www.globenewswire.com/news-release/2023/12/06/2791681/0/en/Incannex-Update-on-IHL-42X-Drug-Candidate-in-Phase-2-3-Clinical-Trial-in-Obstructive-Sleep-Apnea.html
[8] https://scitechdaily.com/snore-no-more-unlocking-sleep-apnea-relief-with-innovative-nasal-spray/
[9] https://www.instagram.com/technologyreview_de/
[10] mailto:jle@heise.de
Copyright © 2024 Heise Medien
Forschende der Drexel University in Pennsylvania haben Beton entwickelt, der sich selbst auftaut. Hier im Bild ist aber eine herkömmlich geräumte Straße.
(Bild: Shutterstock.com; Vitpho)
Forschende haben selbstheizenden Beton entwickelt, dem Eis und Schnee weniger anhaben kann.
Wenn die Fahrbahn überfriert, muss nicht immer Salz gestreut werden. Forschende der Drexel University in Pennsylvania haben einen Beton entwickelt [1], der sich selbst auftaut. Dazu brachten sie Paraffin in den Beton ein. Das wachsartige Material schmilzt bei Temperaturen oberhalb von 5,5 Grad Celsius und nimmt dabei die Wärme seiner Umgebung auf. Durch diesen Phasenwechsel kann es die aufgenommene Energie ohne Verlust beliebig lange speichern. Sinkt die Temperatur unter den Schmelzpunkt, wird es fest und gibt diese Wärme dabei wieder ab.
Das Forschungsteam hat zwei Methoden ausprobiert, das Phasenwechsel-Material in den Beton einzubringen. Die erste Methode bestand darin, poröses Zuschlagmaterial in flüssiges Paraffin zu tauchen, bevor es dem Beton zugesetzt wurde. Die zweite Methode bestand darin, paraffingefüllte Mikro-Kapseln direkt in den Beton zu geben.
(Bild: Drexel University)
Mit diesen beiden Verfahren (plus einer Charge konventionellem Beton zum Vergleich) stellte das Team Ende 2021 Betonplatten her und setzte sie der Witterung aus. Seitdem haben die gut einen halben Quadratmeter großen Platten 32 Frostereignisse und fünf Schneefälle mitgemacht. Kameras und Wärmefühler überwachten die Platten unterdessen. Das Ergebnis: Die mit der ersten Methode produzierten Platten konnten nach dem Einsetzen von Frost über zehn Stunden hinweg eine Oberflächentemperatur von 6 bis 13 Grad halten. Das reichte, um eine mehrere Zentimeter dicke Schneeschicht wegzuschmelzen. Die Platten mit den Paraffin-Mikrokapseln gaben ihre Wärme schneller ab, konnten sie aber nur etwa halb so lange aufrechterhalten. Die Erklärung der Forschenden: Das poröse Material sorgt dafür, dass das Paraffin erst unterhalb seiner normalen Schmelztemperatur schmilzt, nämlich bei 3,9 Grad Celsius. Die Mikrokapseln gaben ihre Wärme hingegen schon bei 5,5 Grad ab.
Die selbstheizenden Betonplatten sind nicht nur sicherer, sie halten auch länger, weil sie weniger Frostschäden erleiden. Mit mehr als fünf Zentimetern Schnee waren die Betonmischungen allerdings überfordert. Auch, wenn es zwischen den Frostphasen nicht genügend Zeit zum Aufheizen gibt, gelangt das Material an seine Grenzen. Als Nächstes wollen die Forschenden weitere Daten zur Haltbarkeit des neuen Betons sammeln.
URL dieses Artikels:
https://www.heise.de/-9673700
Links in diesem Artikel:
[1] https://drexel.edu/news/archive/2024/March/self-heating-phase-change-concrete
[2] https://www.instagram.com/technologyreview_de/
[3] mailto:grh@technology-review.de
Copyright © 2024 Heise Medien
(Bild: alexskopje/Shutterstock.com)
Unter Donald Trump hat sich die US-Regulierungsbehörde FCC von der Internetregulierung verabschiedet. Nun haben Demokraten eine Mehrheit.
Die US-Regulierungsbehörde FCC könnte sich bald wieder dem Internet zuwenden. Das würde der Behörde ermöglichen, die Netzneutralität wieder US-weit einzuführen. Zusätzlich wären Maßnahmen für Verbraucherschutz, Datenschutz, Netzsicherheit und Netzverlässlichkeit möglich. Eine entsprechende Abstimmung ist für 25. April anberaumt. 2017, im ersten Jahr der Amtszeit Donald Trumps, hat die FCC nicht nur die nach jahrelangen Verfahren beschlossene Netzneutralität wieder abgeschafft [1], sondern sich überhaupt ihrer Regulierungsgewalt über das Internet beraubt ("Title II").
Damals hatten Republikaner eine 3:2 Mehrheit in der FCC (Federal Communications Commission), und die Abstimmung kurz vor Weihnachten 2017 verlief auch entsprechend der Parteizugehörigkeit. Nach dem Amtsantritt Joe Bidens von der Partei der Demokraten sollte auch die Mehrheit in der FCC zu den Demokraten wechseln, doch blockierten Republikaner die längste Zeit die Besetzung des fünften Commissioner-Postens, womit es ein 2:2-Patt gab. Erst seit Oktober hat die FCC wieder fünf Mitglieder, davon drei Demokraten.
Vorsitzende Jessica Rosenworcel von den Demokraten hat ihren vier Kollegen nun einen Entwurf für Beschlüsse übermittelt, mit denen die FCC ihre Regulierungszuständigkeit für Internet Service Provider (ISP) am 25. April reaktivieren würde. Alles andere als eine Abstimmung mit 3:2 Stimmen für diese Beschlüsse wäre eine Überraschung. Öffentlich machen möchte Rosenworcel die juristischen Details am Donnerstag.
Im Kern geht es wohl um die Einstufung ISP. Seit Ende 2017 gelten sie in den USA nicht mehr als Telecom-Anbieter, sondern als "Informationsdienste". Diesen kann die FCC nur wenig vorschreiben. Damit sind neben der Netzneutralität auch die Datenschutzvorschriften sowie die Aufsicht über Zusammenschaltungen zwischen Providern sowie über den Zugang zu Infrastruktur, beispielsweise zu Strommasten zur Montage von Leitungen oder Antennen, weggefallen. Durch eine Wiedereinstufung von ISP als Telecom-Anbieter kann sich die FCC die Möglichkeit geben, wieder solche Vorschriften zu erlassen.
Unstrittig ist, dass die 2015 beschlossenen drei Gebote der Netzneutralität legal [2] waren. Das ist ausjudiziert. Allerdings sollen US-Bundesbehörden ihre Regulierung nur dann ändern, wenn sich an der zugrunde liegenden Situation etwas geändert hat. Das könnte ein juristischer Angriffspunkt sein, wenn die FCC am 25. April sich ihre Zuständigkeit zurückholt.
Die Demokraten werden den Schritt also gut begründen müssen. Rosenworcel verweist [3] auf die Coronavirus-Pandemie: "Die Pandemie hat ein für alle Mal gezeigt, dass Breitband essenziell ist." Durch den Rückzug aus der ISP-Regulierung habe sich die FCC selbst gefesselt was die Absicherung der Breitbandnetze, Verbraucherschutz sowie die Sicherung eines schnellen, offenen und fairen Internet anbelangt.
Zusätzlich untermauert ein Gerichtsurteil das Comeback der FCC: Das US-Bundesberufungsgericht für den Hauptstadtbezirk District of Columbia hat 2019 rechtskräftig festgestellt, dass der Rückzug der FCC aus der ISP-Regulierung zulässig war, aber gleichzeitig mehrere Mängel bei der Aufhebung der Netzneutralität [4] festgestellt. Der damals von den Republikanern getragene Beschluss hat sich demnach nicht ausreichend mit den Ergebnissen einer öffentlichen Konsultation befasst, hat die Auswirkungen auf den Bau von Breitbandnetzen nicht berücksichtigt, und sich nicht mit den Folgen für die öffentliche Sicherheit befasst, obwohl diese zu den Kernzielen der Behörde gehört.
Für diesen Bereich kündigt Rosenworcel ebenfalls Maßnahmen an. Während die FCC bereits bestimmte ausländische Telefonie-Anbieter unter Verweis auf die nationale Sicherheit vom US-Markt ausgeschlossen hat, kann sie das derzeit bei Breitbandnetzen nicht tun. Auch kann die FCC derzeit keine Vorgaben für IT-Sicherheit bei ISPs machen. Nicht einmal Daten über Netzausfälle darf die FCC anfordern. Mit der Reklassifizierung von ISPs als Telecom-Anbieter wäre all das wieder möglich. Zusätzlich könnte die FCC dagegen vorgehen, dass ISP die Daten ihrer Kunden, beispielsweise über deren Aufenthaltsorte oder welche Webseiten sie aufrufen, verkaufen.
Der politisch größte Aufreger ist allerdings zweifelsohne die Netzneutralität. Darum wird in den USA seit vielen Jahren gekämpft. Vereinfacht gesagt sind Verbraucherschützer und Demokraten-Politiker dafür, die großen Zugangsprovider und Republikaner dagegen, doch haben auch einige republikanische Senatoren für die Netzneutralität gestimmt. Denn bei der US-Bevölkerung wäre Netzneutralität extrem beliebt, auf beiden Seiten des politischen Spektrums.
Nach dem Rückzug der FCC hat ein Dutzend US-Staaten eigene Regeln für Netzneutralität [5] aufgestellt, die allerdings unterschiedlich strikt sind. Kalifornien hat sich eng an die ehemaligen drei Gebote der Netzneutralität [6] gehalten. Republikaner haben zwar versucht, Bundesstaaten zu verbieten, eigene Regeln aufzustellen. Doch diese Klausel wurde vom Gericht als rechtswidrig aufgehoben. Nur wenn die FCC selbst landesweit Netzneutralität vorschreibt, dürfen Bundesstaaten selbst nicht tätig werden.
URL dieses Artikels:
https://www.heise.de/-9674491
Links in diesem Artikel:
[1] https://www.heise.de/news/Nach-Abschaffung-US-Staaten-wollen-Netzneutralitaet-foerdern-oder-einklagen-3920201.html
[2] https://www.heise.de/news/Rechtskraeftig-US-Netzneutralitaet-war-legal-4213865.html
[3] https://docs.fcc.gov/public/attachments/DOC-401616A1.pdf
[4] https://www.heise.de/news/US-Netzneutralitaet-Befuerworter-und-Gegner-bejubeln-neues-Urteil-4544186.html
[5] https://www.heise.de/news/Nach-Abschaffung-US-Staaten-wollen-Netzneutralitaet-foerdern-oder-einklagen-3920201.html
[6] https://www.heise.de/news/Kalifornien-beschliesst-Netzneutralitaet-4153342.html
[7] mailto:ds@heise.de
Copyright © 2024 Heise Medien
(Bild: alanisko/Shutterstock.com)
In Texas infiziert das Vogelgrippevirus H5N1 derzeit viele Rinder. Mindestens ein Mensch soll sich angesteckt haben. Wie Behörden die Gefahrenlage einstufen.
Was kürzlich das Department of State Health Services (DSHS) in Texas berichtete, klingt ein bisschen bizarr: Mindestens ein Mann hat sich danach mit dem Vogelgrippevirus H5N1 angesteckt – bei einer Kuh. Meistens wird die Vogelgrippe, wie der Name vermuten lässt, von Federvieh übertragen. Und die Infektion von Menschen mit H5N1 ist generell sehr selten. In den USA ist der Fall aus Texas die zweite offiziell dokumentierte Infektion [1] eines Menschen mit dem Virus.
Der Patient habe mit kranken Kühen gearbeitet, sagte Lara M. Anton, Sprecherin des texanischen Gesundheitsministeriums der New York Times [2]. "Wir haben in Milchviehbetrieben ungefähr ein Dutzend Menschen mit Symptomen getestet. Nur eine Person hatte einen positiven Test." Er leidet vor allem unter einer Bindehautentzündung. Die Suche nach Infizierten hatte einen guten Grund: Im März berichtete die texanische Kommission für Tiergesundheit, dass das Vogelgrippevrius H5N1 in zwei Milchviehbetrieben des Bundesstaates grassiere. Auch in anderen US-Bundesstaaten hat das Virus offenbar Rinder infiziert. Laut der nationalen Gesundheitsbehörde USDA [3] sind Farmen in Kansas, Kansas, Michigan und New Mexico betroffen. Vermutlich hätten Wildvögel, von denen einige tot auf Farmen gefunden wurden, das Futter oder Wasser kontaminiert. Ob sich die Rinder untereinander angesteckt haben, ist noch unklar.
Bei dem Virus handelt es sich um die hoch ansteckende H5N1-Variante 2.3.4.4b, die sich in den letzten Jahren weltweit verbreitet hat und vor gut einem Jahr das erste Mal im Menschen gefunden wurde [4]. Sie hat sich den Behörden zufolge durch den Vorfall aber nicht verändert. Die Gefahr für die Bevölkerung sei nach wie vor gering, meldet die USDA. Von Kuhmilch, sofern sie wie üblich vor dem Verpacken erhitzt werde, gehe keine Gefahr aus. Beim Schutz von Menschen, die in Milchviehbetrieben arbeiten, könnten allerdings Atemmasken und Schutzbrillen helfen, empfiehlt der Tiermediziner Joe Armstrong von der University of Minnesota Extension im Fachblatt Science [5]. Schließlich werden die Gänge häufig mit Hochdruckreinigern gesäubert, was auch die Viren kräftig aufwirbelt.
Ältere H5N1-Varianten wurden beim Menschen schon früher diagnostiziert, erstmals 1997. Seit 2003 haben sich der WHO zufolge [6] weltweit mehr als 860 Menschen mit dem H5N1-Virus angesteckt. In rund 450 Fällen endete die Infektion tödlich. Übliche Symptome der Vogelgrippe sind Fieber, Husten und Halsschmerzen. Aber auch Bindehautentzündungen, wie sie den Infizierten aus Texas plagen, zählen dazu.
Gefürchtet wird vor allem eine Übertragung von Mensch zu Mensch, die bisher noch äußerst selten ist. Fachleute gehen davon aus, dass insbesondere Infektionen von Schweinen zu einer entsprechenden Anpassung des Virus führen könnte. "Schweine gelten als klassische Mischgefäße, weil sie sich mit Vogel-, Menschen- und Schweine-Influenzaviren anstecken können", heißt es etwa aus dem Robert-Koch Institut [7]. Gleichwohl steigt das Risiko für entsprechende Mutationen im Grunde mit jeder Infektion. Und die Gefahr, dass sich aus verschiedenen Influenza-Viren gefährliche neue Stämme und Subtypen bilden, ist laut Weltorganisation für Tiergesundheit WOAH [8] dort besonders hoch, wo Säugetiere eng zusammenleben, etwa in der Massentierhaltung.
Die Infektionslage in Kuhställen und auf Weiden soll nun genauer untersucht werden. "In den USA sollen Antikörpertests von Rinderherden zeigen, wie sehr sich die Infektion schon verbreitet hat", heißt es in Science. Zudem könnten Laborexperimenten helfen, zu klären, warum das Virus, das sonst vor allem im Atemtrakt wütet, sich offenbar auch gut in Eutern vermehrt.
Zwar wurden bereits zahlreiche andere Säugetiere mit H5N1 infiziert, darunter Katzen, Hunde, Füchse, Tiger und Delphine. Doch Rinder hatten bisher offenbar nur Wenige im Visier. Der Virologe Martin Beer vom deutschen Friedrich Löffler Institut immerhin hatte mit seinem Team schon 2006 herausgefunden, dass eine andere H5N1-Variante Kälber infizieren kann [9]. Eine Erklärung für die befallenen Kühe in den USA hat er laut Science aber noch nicht. Spezielle Melkpraktiken könnten schuld sein oder auch bisher noch unerkannte genomische Adaptionen. Die Untersuchungen laufen noch. "Wir müssen bessere epidemiologische Daten abwarten", so der Forscher.
URL dieses Artikels:
https://www.heise.de/-9673471
Links in diesem Artikel:
[1] https://www.cdc.gov/flu/avianflu/inhumans.htm#:~:text=Only%20four%20human%20infections%20with,identified%20in%20the%20United%20States.
[2] https://www.nytimes.com/2024/04/01/health/bird-flu-cattle-human.html
[3] https://www.aphis.usda.gov/livestock-poultry-disease/avian/avian-influenza/hpai-detections/livestock
[4] https://www.heise.de/hintergrund/Mensch-mit-H5N1-Virus-infiziert-Was-der-Fall-von-Vogelgrippe-bedeutet-7534613.html
[5] https://www.science.org/content/article/us-dairy-farm-worker-infected-as-bird-flu-spreads-to-cows-in-five-states
[6] https://www.who.int/emergencies/disease-outbreak-news/item/2023-DON445
[7] https://www.rki.de/SharedDocs/FAQ/Gefluegelpest/Gefluegelpest.html#:~:text=Schweine%20gelten%20als%20klassische%20Mischgefäße,neue%20Viren%20(Reassortanten)%20hervorbringen.
[8] https://www.woah.org/en/statement-on-avian-influenza-and-mammals/
[9] https://wwwnc.cdc.gov/eid/article/14/7/07-1468_article
[10] https://www.instagram.com/technologyreview_de/
[11] mailto:anh@heise.de
Copyright © 2024 Heise Medien
(Bild: incrediblephoto / Shutterstock.com)
Mit welchem Test ließe sich eine universelle KI erkennen? Wann würde die erste KI ihn bestehen? Und wäre sie überhaupt wünschenswert? Experten antworten.
Sind GPT & Co die Vorboten einer Künstlichen Allgemeinen Intelligenz (AGI), die ähnlich universell arbeitet wie der menschliche Geist? Dieser Frage ging das Magazin MIT Technology Review in seiner aktuellen Ausgabe 3/2024 [1] nach. Die Schwierigkeiten beginnen schon damit, überhaupt zu erkennen, wann man es mit einer AGI zu tun hat. Eine sehr allgemeine Definition von AGI wäre: Sie muss sowohl universell einsetzbar als auch sehr leistungsfähig sein, und sie muss selbst lernen, wie sie ihre Aufgaben erledigt. Doch wie genau lässt sich das feststellen?
Der Turing-Test [2], der lange Zeit als Prüfstein für künstliche Intelligenz galt, kommt für die neuen Sprachmodelle kaum noch infrage – zu menschenähnlich sind ihre Äußerungen mittlerweile. MIT Technology Review hat deshalb zahlreiche Forscherinnen und Forscher gefragt: "Welche Art von Test müsste eine KI bestehen, um von Ihnen als AGI gemäß dieser Definition akzeptiert zu werden?"
Bemerkenswerterweise nannten zwei Forscher eine nahezu gleichlautende Antwort: "Ein Jahr lang die Arbeit eines Büroangestellten übernehmen, ohne dass es irgendeine(r) merkt", schrieb Stanford-Professor Sebastian Thrun, einer der Pioniere des autonomen Fahrens [3] und des digitalen Lernens. Derzeit erforscht er vor allem den Einsatz von KI im Gesundheitswesen und im Smart Home sowie bei der Verhaltensvorhersage von Menschen. Thrun rechnet damit, dass 2026 solch eine AGI auf den Markt kommen wird.
Ähnlich auch die Antwort von Kristian Kersting [4]: "Wenn ich bei einer neuen Mitarbeiterin in meiner Arbeitsgruppe erst nach einem halben oder einem Jahr merke, dass es sich um eine Künstliche Intelligenz handelt." Kersting ist unter anderem Professor am Centre for Cognitive Science der TU Darmstadt, Co-Direktor des Hessian Center for AI sowie Leiter des Forschungsbereichs "Grundlagen der Systemischen KI" des DFKI. Allerdings ergänzt Kersting auch: "Das wäre meiner Meinung nach zwingend mit einem physischen Körper verbunden, ohne Körper würde ich nicht von einer AGI sprechen." Ein AGI gemäß dieser Definition werde man nach Kerstings Einschätzung "auch die nächsten zwei bis drei Generationen" nicht erleben.
Klaus Mainzer hingegen sieht die AGI schon längst erreicht: "Es macht keinen Sinn, über irgendwelche Superintelligenzen zu fantasieren!", antwortet er. "Die existierende Generative KI (zum Beispiel ChatGPT) erfüllt bereits begrenzt die drei genannten Kriterien: a) Sie ist vielseitig anwendbar. b) Sie ist in vielen Feldern sehr leistungsfähig und c) kann bis zu einem gewissen Grad selbst lernen, Aufgaben zu lösen (aufgrund von verstärkendem Lernen)." Mainzer ist ehemaliger Ordinarius für Philosophie und Wissenschaftstheorie und nun Emeritus of Excellence an der School of Social Sciences and Technology der TU München.
Katharina Zweig [10] hingegen sieht eine AGI nicht in greifbarer Nähe. Wichtige Bedingung für eine AGI sei es, "existenziell von ihrem Weltbild" abzuhängen. "Als Menschen haben wir zum Beispiel ein Modell davon, wie schnell ein Auto fährt, und hängen existenziell davon ab, wenn wir eine viel befahrene Straße überqueren wollen", schreibt Zweig. "Unsere heutigen KI-Systeme hängen in keiner Form von ihren Voraussagen über die Welt ab. Das muss man im Moment gar nicht testen – dass diese Abhängigkeit fehlt, kann man als Informatikerin direkt an der Programmierung sehen."
Eine solche AGI werde "hoffentlich niemand" entwickeln. Zweig: "Wir sollten es als Menschen gar nicht erst versuchen. Denn dazu müssten wir der Maschine einen universellen Kompass mitgeben, was "gut" und was "schlecht" ist. Unser eigener Kompass hat sich evolutionär entwickelt und wird zusätzlich durch soziale Interaktion ständig neu ausgerichtet – und ist trotzdem oft nicht zuverlässig. Ich kann mir nicht vorstellen, dass wir gut darin wären, einen solchen Kompass für Maschinen zu entwickeln."
Zweig ist Professorin an der TU Kaiserslautern und leitet dort das Algorithm Accountability Lab. Sie ist Mitglied der Enquete-Kommission "Künstliche Intelligenz" zur Beratung des Bundestages und weiterer Beratungsgremien.
URL dieses Artikels:
https://www.heise.de/-9672530
Links in diesem Artikel:
[1] https://shop.heise.de/mit-technology-review-03-2024/print?wt_mc=intern.shop.shop.tr_2403.t1.textlink.textlink
[2] https://www.heise.de/hintergrund/Ist-der-Turing-Test-nach-Lamda-noch-aktuell-7163399.html
[3] https://www.heise.de/thema/autonomes-Fahren
[4] https://www.heise.de/hintergrund/KI-in-Europa-Wir-werden-immer-noch-als-die-Nerds-angesehen-8987595.html
[5] https://www.heise.de/select/tr/2024/3/2405207123781369118
[6] https://www.heise.de/select/tr/2024/3/2405207582989865137
[7] https://www.heise.de/select/tr/2024/3/2405208074783443934
[8] https://www.heise.de/select/tr/2024/3/2405208042451913129
[9] https://shop.heise.de/mit-technology-review-03-2024/print?wt_mc=intern.shop.shop.tr_2403.dos.textlink.textlink
[10] https://www.heise.de/hintergrund/Deep-Dive-Fuer-eine-Zukunft-nach-ChatGPT-und-Co-9668849.html
[11] https://www.heise.de/select/tr/2024/3/2405207210696030047
[12] https://shop.heise.de/mit-technology-review-03-2024/print?wt_mc=intern.shop.shop.tr_2403.t1.textlink.textlink
[13] https://www.mykiosk.com/suche/91485
[14] https://www.instagram.com/technologyreview_de/
[15] mailto:grh@technology-review.de
Copyright © 2024 Heise Medien
Wann Sprachmodelle eine menschengleiche Intelligenzstufe erreicht haben und was sie dafür können müssen, darüber sprechen wir in der neuen Podcast-Folge.
Ein kurzer Rückblick zum vergangenen November: In dem Trubel um die Arbeitssituation von Sam Altman, CEO von OpenAI, gab es die Meldung, dass OpenAI mit dem sogenannten Project Q [1] bereits einen Durchbruch bei der Allgemeinen Künstlichen Intelligenz (AGI) gemacht habe. Details drangen jeoch nicht an die Öffentlichkeit. Aber natürlich ist die Frage spannend, wann eine solche menschengleiche, künstliche Intelligenz erreicht sein könnte. Und was müsste diese können, um als solche definiert zu werden? Dieser Frage ist TR-Redakteur Wolfgang Stieler für einen Heft-Artikel in der neuen Ausgabe von MIT Technology Review nachgegangen. [2] Im Podcast sprechen wir darüber.
Außerdem im Weekly:
Wenn auch ihr, liebe Zuhörerinnen und Zuhörer, mal Empfehlungen habt für Serien, Bücher, Games, Podcasts oder sonstige Medien, die neu oder irgendwie noch nicht zu dem Ruhm gekommen sind, den sie Eurer Meinung nach verdienen, dann schreibt uns doch eine Mail an info@technology-review.de [5] oder lasst Euren Tipp da auf unseren Social-Media-Konten von MIT Technology Review: Wir sind auf Facebook, Instagram, X, LinkedIn, TikTok und ganz neu: auf Mastodon [6] und Bluesky [7]. Oder kontaktiert uns auf Mastodon persönlich: Wolfgang Stieler [8], Gregor Honsel [9], Jenny Lepies [10].
Mehr dazu in der ganzen Folge – als Audio-Stream (RSS-Feed [11]):
URL dieses Artikels:
https://www.heise.de/-9672914
Links in diesem Artikel:
[1] https://www.heise.de/news/Gruende-fuer-Altmans-Entlassung-Angeblich-Durchbruch-bei-AGI-9537095.html
[2] https://www.heise.de/news/Kuenstliche-Intelligenz-Was-kommt-nach-ChatGPT-9668301.html
[3] https://www.heise.de/hintergrund/Deep-Dive-Fuer-eine-Zukunft-nach-ChatGPT-und-Co-9668849.html
[4] https://www.heise.de/hintergrund/Weekly-Kleben-ohne-Klebstoff-virtuelle-Fliege-3-Body-Problem-Serie-9667375.html
[5] mailto:info@technology-review.de
[6] https://social.heise.de/@techreview_de
[7] https://bsky.app/profile/technologyreview.de
[8] https://social.tchncs.de/@wstieler
[9] https://social.heise.de/@ghonsel
[10] https://mstdn.social/@Kultanaamio
[11] https://tech2go.podigee.io/feed/mp3
[12] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[13] https://podcasts.apple.com/de/podcast/tech2go-der-technology-review-podcast/id1511589900
[14] https://www.heise.de/tr/rss/tech2go.rss
[15] https://open.spotify.com/show/5sQ717mamQbJVvvOZT6p2y
[16] https://www.heise.de/thema/mit-technology-review-podcast
[17] https://www.instagram.com/technologyreview_de/
[18] mailto:jle@heise.de
Copyright © 2024 Heise Medien
(Bild: FlashMovie/Shutterstock.com)
Microsoft hat in .NET 8.0 die Methoden Parse() und TryParse() in der Klasse System.Net.IPNetwork ergänzt.
Microsoft hat in .NET 8.0 die Methoden Parse() und TryParse() in der Klasse System.Net.IPNetwork ergänzt. Mit diesen Methoden kann man IP-Adressen, die man als Zeichenkette (in Form einer Instanz der Klasse System.String oder ReadOnlySpan<char>) bekommt, in eine Instanz von System.Net.IPNetwork umwandeln.
Wie üblich in .NET: Parse() liefert das Objekt oder einen Laufzeitfehler, wenn die Konvertierung misslingt. TryParse() liefert true oder false zurück; das erstellte Objekt erhält der Entwickler oder die Entwicklerin im Erfolgsfall via out-Parameter.
Folgendes Beispiel zeigt den Einsatz der neuen Methoden:
// Neue statische Methode Parse()
IPNetwork network1 = IPNetwork.Parse("192.168.0.1/32");
Console.WriteLine(network1.BaseAddress); // 192.168.0.1
Console.WriteLine(network1.PrefixLength); // 32
// Neue statische Methode TryParse()
bool success = IPNetwork.TryParse("192.168.0.1/32",
out var network2);
Console.WriteLine(success); // true
Console.WriteLine(network2.BaseAddress); // 192.168.0.1
Console.WriteLine(network2.PrefixLength); // 32
URL dieses Artikels:
https://www.heise.de/-9670497
Links in diesem Artikel:
[1] https://www.heise.de/blog/Neu-in-NET-8-0-1-Start-der-neuen-Blogserie-9574680.html
[2] https://www.heise.de/blog/Neu-in-NET-8-0-2-Neue-Anwendungsarten-9581213.html
[3] https://www.heise.de/blog/Neu-in-NET-8-0-3-Primaerkonstruktoren-in-C-12-0-9581346.html
[4] https://www.heise.de/blog/Neu-in-NET-8-0-4-Collection-Expressions-in-C-12-0-9581392.html
[5] https://www.heise.de/blog/Neu-in-NET-8-0-5-Typaliasse-in-C-12-0-9594693.html
[6] https://www.heise.de/blog/Neu-in-NET-8-0-6-ref-readonly-in-C-12-0-9602188.html
[7] https://www.heise.de/blog/Neu-in-NET-8-0-7-Optionale-Parameter-in-Lambda-Ausdruecken-in-C-12-0-9609780.html
[8] https://www.heise.de/blog/Neu-in-NET-8-0-8-Verbesserungen-fuer-nameof-in-C-12-0-9616685.html
[9] https://www.heise.de/blog/Neu-in-NET-8-0-9-Neue-und-erweiterte-Datenannotationen-9623061.html
[10] https://www.heise.de/blog/Neu-in-NET-8-0-10-Plattformneutrale-Abfrage-der-Privilegien-9630577.html
[11] https://www.heise.de/blog/Neu-in-NET-8-0-11-Neue-Zufallsfunktionen-9637003.html
[12] https://www.heise.de/blog/Neu-in-NET-8-0-12-Eingefrorene-Objektmengen-9643310.html
[13] https://www.heise.de/blog/Neu-in-NET-8-0-12-Leistung-von-FrozenSet-9649523.html
[14] https://www.heise.de/blog/Neu-in-NET-8-0-14-Neue-Waechtermethoden-fuer-Parameter-9656153.html
[15] https://www.heise.de/blog/Neu-in-NET-8-0-15-Geschluesselte-Dienste-bei-der-Dependency-Injection-9662004.html
[16] mailto:rme@ix.de
Copyright © 2024 Heise Medien
(Bild: Roxana Gonzalez/Shutterstock.com)
Die teilweise Legalisierung von Cannabis ist durch. Wie es um Anforderungen beim Anbau des Drogenhanfs steht, erklärt Frank Höppner vom Julius-Kühn-Institut.
Frank Höppner ist Experte für Nutzhanf am Julius Kühn-Institut (JKI), Bundesforschungsinstitut für Kulturpflanzen in Braunschweig. Er erklärt, wer nach den neuen Regeln zum Cannabis-Anbau und -Konsum den Bedarf der Republik voraussichtlich decken wird – und was den Anbau so besonders macht.
Cannabis darf demnächst als Genussmittel konsumiert werden. Woher wird es kommen?
Laut Gesetz darf jeder bis zu drei Pflanzen anbauen. Wie das kontrolliert werden soll, ist allerdings noch nicht reguliert. Ansonsten ist vorgesehen, dass Cannabis ab Juli unter Auflagen von registrierten Clubs für ihre Mitglieder auch im größeren Maßstab angebaut werden darf. Aktuell wird Cannabis in großen Mengen nur für medizinische Anwendungen produziert. Dafür hat die Cannabisagentur des Bundesinstituts für Arzneimittel und Medizinprodukte mehrere Lizenzen vergeben.
(Bild: J. Kaufmann / Julius Kühn-Institut (JKI))
Woher bekommen Anbauwillige die nötigen Samen?
Bisher ist dafür noch kein Saatgut in Deutschland vorhanden. Das wird man sich über das Internet bestellen müssen, was ja im Grunde schon heute gemacht wird. Nur der Anbau ist, beziehungsweise war, verboten. Die Samen kommen vor allem aus den Niederlanden und das wird sicher kein Problem darstellen.
Politiker schlagen vor, leere Schweineställe für den Anbau von Drogenhanf zu nutzen. Und der Nutzhanfanbau funktioniert ja auch auf dem Acker sehr gut. Können also Landwirte vom neuen Gesetz profitieren?
Nein, Landwirte profitieren von der neuen Regulierung überhaupt nicht. Selbst der Anbau von Nutzhanf, zum Beispiel für Dämmstoffe oder Textilien, ist nach wie vor nach dem Betäubungsmittelgesetz anzeigepflichtig und wird auch kontrolliert. Danach darf der Hanf maximal 0,3 Prozent des berauschenden Tetrahydrocannabinols (THC) enthalten. Das ist in Ländern wie Kanada, Indien und in den USA anders. Dort sind Gehalte von mehreren Prozent erlaubt. Hinzu kommt: Der Anbau von Drogenhanf ist etwas ganz anderes.
Inwiefern?
Um eine gute Cannabis-Qualität zu bekommen, müssen die Pflanzen genauso betreut werden wie Medizinalhanf. Und das funktioniert nur indoor, klimatisiert und mit Techniken, die in der auf Ackerbau ausgerichteten Landwirtschaft nicht die Regel sind. Licht, Temperatur und Luftfeuchtigkeit müssen so optimiert werden, dass man hohe THC-Gehalte herausbekommt. Draußen wären die Wetterschwankungen für eine gleichmäßig hohe THC-Produktion viel zu groß.
Gibt es weitere Unterschiede zwischen den Anbaumethoden für Nutz- und Drogenhanf?
Der Anbau von Drogenhanf ist darauf angelegt, nur die Blüten zu ernten. Die Pflanze soll also immer nur in der Blühphase bleiben, Blüten und Blätter, aber keine Samen produzieren. Nur so kann ich eine Pflanze dauerhaft nutzen. Würde Drogenhanf auf dem Acker angebaut werden, würde er irgendwann in die generative Phase wechseln und Samen produzieren und dann stirbt die Pflanze.
Warum passiert das indoor nicht?
Weil dort nur weibliche Pflanzen wachsen, die nicht befruchtet werden. Diese Situation lässt sich draußen nur schwer herstellen.
Wie wird die Pflanze abgeerntet?
THC steckt in den klebrigen Ausscheidungen von Drüsenhaaren, die in unterschiedlicher Dichte auf der Epidermis der Pflanzen sitzen. Will ich reines THC haben, müssen physikalisch-chemische Methoden angewandt werden. Für Marihuana werden Fruchthüllblätter, Stängel und Blätter nur zerkleinert.
Wie groß ist die Gefahr für Pflanzenkrankheiten?
Man hat natürlich ein gewisses Risiko für Pilzerkrankungen, die sich wegen der höheren Luftfeuchtigkeit indoor schnell ausbreiten können. Wenn sich eine Pilzkrankheit erst einmal in den Wurzelbereich ausbreitet, geht die Wurzel kaputt und dann ist auch die Pflanze schnell tot.
Kommen Pestizide als Gegenmittel zum Einsatz?
Die Anbauer werden die Produktion natürlich möglichst intensivieren, aber ich gehe nicht davon aus, dass sie mit viel Pflanzenschutzmittel arbeiten werden. Sie wollen ihr Produkt schließlich in der Regel auch selber konsumieren. Allerdings ist so etwas wie eine Kontrollkette im aktuellen Gesetz gar nicht verankert.
URL dieses Artikels:
https://www.heise.de/-9668563
Links in diesem Artikel:
[1] https://www.heise.de/select/tr/2024/3/2405207123781369118
[2] https://www.heise.de/select/tr/2024/3/2405207582989865137
[3] https://www.heise.de/select/tr/2024/3/2405208074783443934
[4] https://www.heise.de/select/tr/2024/3/2405208042451913129
[5] https://shop.heise.de/mit-technology-review-03-2024/print?wt_mc=intern.shop.shop.tr_2403.dos.textlink.textlink
[6] https://www.instagram.com/technologyreview_de/
[7] mailto:anh@heise.de
Copyright © 2024 Heise Medien