FreshRSS

🔒
✇ heise Netze

Vodafone will 5G-Handynetz verbessern, auch wegen Übernahme der 1&1-Kunden

Von Heise — 12. Juni 2024 um 06:14
Ein Mobilfunkmast auf dem flachen, grünen Land

(Bild: swissdrone / Shutterstock.com)

Wer mit dem Handy durch Deutschland fährt, hat mancherorts noch immer schlechtes Netz. Doch alles in allem werden die Verbindungen besser - auch bei Vodafone.

Der Telekommunikationsanbieter Vodafone will sein 5G-Handynetz in Deutschland weiter ausbauen. Derzeit seien rund 92 Prozent der deutschen Haushalte in Reichweite von 5G-Antennen von Vodafone und bis spätestens März 2025 sollen es 95 Prozent sein, sagte der Vodafone-Deutschlandchef Marcel de Groot der dpa in Düsseldorf. "Zeitgleich statten wir unsere bestehenden Mobilfunkstationen mit zusätzlichen Kapazitäten aus."

Dies geschieht auch mit Blick auf die anstehende Zubuchung (Migration) von Handykunden des Wettbewerbers 1&1. Der hat nur wenige eigene Antennen – dort, wo er nicht selbst funkt, werden dessen Kunden derzeit noch mit dem O2-Netz verbunden. Im Sommer wechselt 1&1 beim "National Roaming" zu Vodafone, rund 12 Millionen 1&1-Kunden müssen dann schrittweise in das Vodafone-Netz übergeführt werden. Das beschert Vodafone Mieteinnahmen und die Auslastung des Netzes steigt, zuletzt hatte die Firma in Deutschland nach eigenen Angaben rund 31 Millionen Mobilfunk-Kunden.

Beim 5G-Handynetz-Ausbau sind die Konkurrenten weiter, die Deutsche Telekom liegt derzeit nach eigenen Angaben bei einer Haushaltsabdeckung von 96 Prozent und O2 Telefónica bei 95 Prozent, beide Firmen peilen bis Ende 2025 einen Wert von nahezu 100 Prozent an.

Keine neue Frequenzauktion, mehr Geld für 5G-Ausbau

Dieses Jahr sollte ursprünglich eine Auktion von Mobilfunk-Frequenzen stattfinden, doch dieses Mal will die Bundesnetzagentur darauf verzichten und stattdessen bestimmte Nutzungsrechte um fünf Jahre verlängern [1]. Im Gegenzug dazu müssen sich die Firmen zu einem verstärkten Netzausbau bis 2030 verpflichten. Dann sollen 99,5 Prozent der Fläche Deutschlands mit mindestens 50 Megabit pro Sekunde versorgt sein.

Vodafone-Deutschlandchef de Groot findet den neuen Kurs der Netzagentur – also den Verzicht auf die Auktion – "grundsätzlich gut für die Handynutzer in Deutschland". Schließlich hätten die Netzbetreiber dadurch mehr Geld für den Ausbau. "Jeder Euro, der in Masten statt in Lizenzscheine fließt, ist ein gut investierter Euro", sagte der Manager.

Kritik an möglichem Umbau wegen China-Komponenten

Die vorgeschlagenen Ausbauziele in der Fläche wären aber nur erreichbar, "wenn die Politik den Mobilfunkausbau bundesweit beschleunigt, indem sie gesetzlich festlegt, dass er von überragendem öffentlichen Interesse ist", sagt de Groot. "Und klar ist auch: Wenn der Rückbau von Mobilfunkantennen im ganzen Land angeordnet wird, sind die vorgeschlagenen Versorgungsziele nicht erreichbar."

Mit dieser Bemerkung bezieht er sich auf Überlegungen in der Bundespolitik [2], chinesische Komponenten aus dem deutschen Antennen-Netz entfernen zu lassen. Das würde die drei etablierten Handynetzbetreiber Deutsche Telekom, Vodafone und Telefónica O2 vor Probleme stellen. Schließlich setzen sie im Antennen-Netz alle auch auf den chinesischen Anbieter Huawei, dessen hohe Qualität sie schätzen.


URL dieses Artikels:
https://www.heise.de/-9758840

Links in diesem Artikel:
[1] https://www.heise.de/news/Regulierer-Mobilfunkfrequenzen-fuenf-Jahre-verlaengern-gegen-Flaechenabdeckung-9716578.html
[2] https://www.heise.de/news/Ministertreffen-Deutscher-Umgang-mit-Huawei-bleibt-unklar-9730661.html
[3] mailto:fds@heise.de

Copyright © 2024 Heise Medien

Adblock test (Why?)

✇ Developer-Blog - the next big thing

Ente gut, alles gut? DuckDB ist eine besondere Datenbank

Von Golo Roden — 10. Juni 2024 um 09:20

(Bild: iX / generiert mit ChatGPT)

DuckDB ist in Version 1.0 erschienen. Was hat es mit dieser Datenbank auf sich, die einiges anders macht als andere Datenbanken?

Vor kurzem bin ich auf eine Software gestoßen, bei der ich mir gewünscht hätte, ich hätte sie schon viel früher kennengelernt. Aber, wie es so schön heißt: besser spät als nie. Bei dieser Software handelt es sich um eine etwas ausgefallene Datenbank, die ein paar Dinge anders macht als die üblichen Verdächtigen. Die Rede ist, und das lässt sich am Titel dieses Blogposts bereits erahnen, natürlich von DuckDB [1], deren finale Version 1.0 am Montag vor einer Woche veröffentlicht wurde. Das ist ein Grund mehr, einmal einen Blick auf diese Datenbank zu werfen.

DuckDB stammt aus den Niederlanden und war ursprünglich ein Uniprojekt. Entwickelt wird die Datenbank seit 2018, also seit inzwischen sechs Jahren. Nun ist es nicht so, als ob es nicht grundsätzlich schon mehr als genug Datenbanken auf dem Markt gäbe, aber bei DuckDB gibt es einige nennenswerte Besonderheiten. Das fängt damit an, dass DuckDB im Vergleich zu vielen anderen Datenbanken (wie PostgreSQL, MariaDB, SQL Server oder Oracle) nicht als Client-Server-System angelegt ist, sondern die Datenbank läuft Embedded und In-Process.

In-Process und In-Memory

Das heißt, sie lässt sich nahtlos in eine eigene Anwendung integrieren, sodass die Anwendung die Datenbank-Engine nachher mitbringt: Startet man die Anwendung, ist die Datenbank da. Beendet man die Anwendung, wird auch die Datenbank beendet. Vielleicht erinnert Sie das ein wenig an eine andere In-Process-Datenbank, nämlich an SQLite [2]. Diese extrem verbreitete Datenbank funktioniert grundsätzlich genauso, aber es gibt einen ganz gravierenden Unterschied zwischen den beiden. Dazu aber später mehr.

DuckDB, und das ist ebenfalls eine Besonderheit, läuft dabei aber nicht nur In-Process mit der eigentlichen Anwendung, sondern sie kennt auch noch zwei Betriebsmodi: Sie kann die Daten nämlich entweder ganz klassisch auf Disk persistieren oder, und das ist ungewöhnlich, sie kann komplett In-Memory ausgeführt werden, also komplett ohne Persistenz. Das klingt vielleicht im ersten Augenblick etwas widersinnig, aber in einigen Szenarien ist das unglaublich praktisch und hilfreich. Und (das ist natürlich auch noch ein ganz gravierender Punkt) im Fall dieses In-Memory-Betriebs ist DuckDB rasend schnell.

Fokus auf OLAP

Und damit kommen wir nun zur eigentlichen Spezialität von DuckDB, die sie auch als eingebettete In-Process-Datenbank von zum Beispiel SQLite abhebt: SQLite ist nämlich grundsätzlich eine SQL-basierte, relationale Datenbank, die Tabellen kennt, und in diesen Tabellen die Daten zeilenweise speichert. Für viele Anwendungsfälle ist das praktisch, denn häufig werden Daten auch entsprechend Datensatz für Datensatz gelesen und verarbeitet. Aber: Das muss nicht so sein.

Es gibt nämlich auch Anwendungsfälle, in denen es deutlich praktischer wäre, wenn man effizient die Spalten statt der Zeilen lesen (beziehungsweise schreiben) könnte. Das ist immer dann der Fall, wenn es um die Aggregation von Daten geht, also zum Beispiel bei Statistiken, Analysen, Reports und so weiter. Also im Prinzip bei allem, was eher in den Bereich OLAP statt OLTP [4] fällt.

Hier wird es spannend: DuckDB ist nämlich eine spaltenorientierte Datenbank, das heißt, sie ist nicht so sehr auf das tagtägliche operative Geschäft ausgelegt, sondern sie adressiert den Datenanalyse-Bereich. Mit anderen Worten: Mit DuckDB hat man eine In-Process- und, wenn man das möchte, auch eine In-Memory-Engine, die sich mit SQL ansteuern lässt, und die auf Datenanalyse und OLAP ausgelegt ist. Also im Prinzip so etwas wie Apache Spark, nur halt in klein, schnuckelig, leichtgewichtig und gefühlt zigmal einfacher.

Und das ist tatsächlich ein ziemliches Alleinstellungsmerkmal. So eine Datenbank gibt (oder besser gesagt: gab) es zumindest meines Wissens nach bisher noch nicht.

Integration mit allem

Vor einigen Tagen habe ich mich mit einem Freund unterhalten, der in ebendiesem Bereich tätig ist, und wir kamen durch Zufall auf Spark zu sprechen. Ich fragte, ob sie denn wirklich derart umfangreiche Datenmengen hätten, dass sich der Aufwand für ein Spark-Cluster lohnen würde. Und seine ganz klare Antwort war Nein, das ließe sich auch problemlos auf einem einzelnen Server komplett im RAM bewerkstelligen. Das bedeutet natürlich nicht, dass es keinen Anwendungsfall für Spark gäbe, aber allzu oft wird Spark mangels Alternativen auch ohne Notwendigkeit genutzt.

Viele denken nun vielleicht, dass sich das alles in der Theorie ganz nett anhört, aber in der Realität ging es um mehr, wie beispielsweise die Integration mit diversen anderen Datenquellen. Schlagwörter wie Apache Arrow, Parquet-Files, CSV, JSON, Excel und S3 stehen vielleicht im Raum. Das Schöne ist: DuckDB kann das alles. DuckDB versteht Parquet-Dateien ebenso wie CSV, JSON und Excel. DuckDB kann sogar andere Datenbanken als Datenquelle integrieren. Das heißt, mit DuckDB lässt sich etwa direkt eine PostgreSQL oder eine MariaDB anbinden, ohne dafür einen gesonderten Adapter zu benötigen.

Features ohne Ende

Die Liste der interessanten Features geht jedoch noch deutlich weiter: DuckDB unterstützt wie gesagt SQL, und zwar nicht (wie so oft) nur eine Schmalspurvariante, sondern vollumfänglich nahezu alles, was SQL heutzutage zu bieten hat: von Indizes über Transaktionen, Common Table Expressions, Snapshot-Isolation, CUBE-Funktionen, As-Of-Joins und vieles mehr. Als ich das alles nach und nach herausgefunden habe, war ich doch sehr beeindruckt.

Und weil DuckDB in C++ geschrieben ist, kann man die Datenbank zum einen auf so ziemlich jeder gängigen Plattform (macOS, Linux, Windows) und Architektur (x86, ARM) nutzen. Zum anderen lässt sich DuckDB auch in nahezu jede beliebige andere Technologie integrieren. Es gibt von Haus aus schon eine ganze Reihe von Adaptern, unter anderem für Go, Node.js, Python, R, Rust, Java, Julia, Swift und noch einige mehr [5]. Es gibt sogar einen WebAssembly-Build [6], sodass man DuckDB komplett im Browser laufen lassen kann! Und das alles mit mehr oder weniger ein paar Zeilen Code, denn die Installation und auch die Anbindung sind wirklich simpel.

Apropos Installation: Wer einfach mal so ein bisschen mit DuckDB experimentieren und dafür nicht direkt eine Anwendung erstellen möchte, kann DuckDB auch über die Paketverwaltung des jeweiligen Betriebssystems [7] installieren und als eigenständiges Werkzeug über ein CLI starten. Gleichzeitig heißt das übrigens auch, dass jede Anwendung natürlich ihre eigene lokale Version von DuckDB haben kann, weil es keine systemweite Installation als Server gibt, die sich alle teilen müssten. Im Prinzip ist das einfach nur eine ganz normale weitere Abhängigkeit, die man zu der eigenen Codebase dazu installiert.

Was bedeutet Version 1.0?

Ich habe geschrieben, dass vergangene Woche die Version 1.0 erschienen ist. Diese trägt den Codenamen "Snow Duck". Tatsächlich ist das eine Anspielung an macOS 10.6 "Snow Leopard", was Apple damals mit dem Slogan "Zero Features" beworben hat, weil Snow Leopard den Fokus ausschließlich auf Stabilität gelegt hat. Genau das ist laut den Entwicklerinnen und Entwicklern von DuckDB auch das Hauptziel der 1.0 [8] gewesen: Einen wirklich stabilen Unterbau zu liefern. Wer DuckDB schon ein bisschen länger verfolgt, weiß, dass es im Laufe der Zeit den einen oder anderen Breaking Change im Dateiformat gab. Aber auch das ist jetzt behoben und final festgelegt. Die Entwicklerinnen und Entwickler geben an, dass DuckDB 1.0 nun wirklich als stabile Version anzusehen sei.

Apropos Entwicklerinnen und Entwickler: Ich habe auch erwähnt, dass DuckDB ursprünglich ein Uniprojekt war. Die Entwicklung obliegt inzwischen aber einem Unternehmen, das sich daraus gebildet hat, nämlich DuckDB Labs [9]. Dieses wiederum hängt nicht von externen Investoren ab, sondern ist komplett selbst gebootstrappt. Das finde ich persönlich immer ein sehr gutes Zeichen, weil das bedeutet, dass ein Unternehmen technologisch sinnvolle Entscheidungen treffen kann und nicht zahlengetrieben Irgendetwas machen muss, um Investoren zufriedenzustellen. Von daher gehe ich persönlich davon aus, dass DuckDB eine gute Zukunft bevorsteht.

Eine glänzende Zukunft

Apropos Zukunft: Falls das alles an Argumenten noch nicht genügt, um mal einen Blick auf DuckDB zu werfen, sei noch erwähnt, dass es auch eine ganze Reihe von Extensions gibt, mit denen man den Funktionsumfang erweitern kann – zum Beispiel für eine Volltextsuche oder für den Umgang mit Geo-Spatial-Daten.

Denjenigen, die neugierig geworden sind, kann ich abschließend noch ein Buch empfehlen, das zwar noch nicht final erschienen ist (das wird voraussichtlich noch zwei Monate dauern), aber das man trotzdem vorab schon lesen kann, und zwar: "DuckDB in Action [10]" von Manning Publishing. Der Vorab-Zugriff ist über deren MEAP-Programm (das "Manning Early Access Program" möglich). Ich habe das, was von dem Buch bislang zur Verfügung steht (und das ist zugegebenermaßen bereits fast alles), schon gelesen, und wie gesagt: Ich kann es wärmstens empfehlen! Mehr zu dem Buch finden Sie in der Buchbesprechung von Thorben Janssen [11].

Am Ende stellt sich trotz allem natürlich die Frage nach der passenden Anwendung. DuckDB ist auf Datenanalyse ausgelegt. Das heißt, wer eher eine klassische SQL-Datenbank sucht, wird mit DuckDB wahrscheinlich nicht übermäßig glücklich werden. Für diejenigen, die sich aber ohnehin mit OLAP & Co. beschäftigen und für die Spark & Co. zu groß und zu komplex sind, ist DuckDB sicherlich mehr als nur einen Blick wert.


URL dieses Artikels:
https://www.heise.de/-9753854

Links in diesem Artikel:
[1] https://duckdb.org/
[2] https://www.sqlite.org/
[3] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[4] https://www.youtube.com/watch?v=mmPkqSR7eXE
[5] https://duckdb.org/docs/api/overview
[6] https://duckdb.org/docs/api/wasm/overview
[7] https://duckdb.org/docs/installation/index
[8] https://duckdb.org/2024/06/03/announcing-duckdb-100.html
[9] https://duckdblabs.com/
[10] https://www.manning.com/books/duckdb-in-action
[11] https://www.heise.de/hintergrund/Buchbesprechung-DuckDB-in-Action-9736958.html
[12] mailto:rme@ix.de

Copyright © 2024 Heise Medien

Adblock test (Why?)

✇ Developer-Blog - Der Dotnet-Doktor ff.org

Neu in .NET 8.0 [24]: HTTPS-Proxies bei HttpClient

Von Dr. Holger Schwichtenberg — 07. Juni 2024 um 08:00

(Bild: FlashMovie / shutterstock.com)

Die Klasse HttpClient bietet seit .NET 8.0 auch Unterstützung für Proxies mit gesicherter Verbindung.

Die Klasse HttpClient kann seit .NET 8.0 auch HTTPS-basierte Proxies verwenden. Es geht nicht um die Angabe einer TLS-gesicherten Verbindung der Operationen der Klasse HttpClient (GetAsync(), PostAsync(), etc) – das war bisher schon möglich.

Neu ist, dass man bei WebProxy eine TLS-gesicherte Verbindung angeben kann.


URL dieses Artikels:
https://www.heise.de/-9722968

Links in diesem Artikel:
[1] https://www.heise.de/blog/Neu-in-NET-8-0-1-Start-der-neuen-Blogserie-9574680.html
[2] https://www.heise.de/blog/Neu-in-NET-8-0-2-Neue-Anwendungsarten-9581213.html
[3] https://www.heise.de/blog/Neu-in-NET-8-0-3-Primaerkonstruktoren-in-C-12-0-9581346.html
[4] https://www.heise.de/blog/Neu-in-NET-8-0-4-Collection-Expressions-in-C-12-0-9581392.html
[5] https://www.heise.de/blog/Neu-in-NET-8-0-5-Typaliasse-in-C-12-0-9594693.html
[6] https://www.heise.de/blog/Neu-in-NET-8-0-6-ref-readonly-in-C-12-0-9602188.html
[7] https://www.heise.de/blog/Neu-in-NET-8-0-7-Optionale-Parameter-in-Lambda-Ausdruecken-in-C-12-0-9609780.html
[8] https://www.heise.de/blog/Neu-in-NET-8-0-8-Verbesserungen-fuer-nameof-in-C-12-0-9616685.html
[9] https://www.heise.de/blog/Neu-in-NET-8-0-9-Neue-und-erweiterte-Datenannotationen-9623061.html
[10] https://www.heise.de/blog/Neu-in-NET-8-0-10-Plattformneutrale-Abfrage-der-Privilegien-9630577.html
[11] https://www.heise.de/blog/Neu-in-NET-8-0-11-Neue-Zufallsfunktionen-9637003.html
[12] https://www.heise.de/blog/Neu-in-NET-8-0-12-Eingefrorene-Objektmengen-9643310.html
[13] https://www.heise.de/blog/Neu-in-NET-8-0-12-Leistung-von-FrozenSet-9649523.html
[14] https://www.heise.de/blog/Neu-in-NET-8-0-14-Neue-Waechtermethoden-fuer-Parameter-9656153.html
[15] https://www.heise.de/blog/Neu-in-NET-8-0-15-Geschluesselte-Dienste-bei-der-Dependency-Injection-9662004.html
[16] https://www.heise.de/blog/Neu-in-NET-8-0-16-Neue-Methoden-fuer-IP-Adressen-9670497.html
[17] https://www.heise.de/blog/Neu-in-NET-8-0-17-Zeitabstraktion-fuer-Tests-mit-Zeitangaben-9675891.html
[18] https://www.heise.de/blog/Neu-in-NET-8-0-18-Ein-Zeitraffer-mit-eigenem-FakeTimeProvider-9683197.html
[19] https://www.heise.de/blog/Neu-in-NET-8-0-19-Razor-HTML-Rendering-in-beliebigen-NET-Anwendungen-9691146.html
[20] https://www.heise.de/blog/Neu-in-NET-8-0-20-Neue-Code-Analyzer-fuer-NET-Basisklassen-9706875.html
[21] https://www.heise.de/blog/Neu-in-NET-8-0-20-Neue-Code-Analyzer-fuer-ASP-NET-Core-9710151.html
[22] https://www.heise.de/blog/Neu-in-NET-8-0-22-Neues-Steuerelement-OpenFolderDialog-fuer-WPF-9722901.html
[23] mailto:rme@ix.de

Copyright © 2024 Heise Medien

Adblock test (Why?)

✇ heise Netze

FCC bereitet sichere Internet-Routen vor

Von Heise — 06. Juni 2024 um 23:23
Rote und blaue Ethernet-Kabel hängen an einem Rack

(Bild: asharkyu/Shutterstock.com)

Die Routingtabellen des Internet (BGP) sind anfällig für Manipulation. Daher sollen US-Provider zu Sicherungsmaßnahmen verpflichtet werden.​

Internet Service Provider in den USA sollen rechtlich dazu verpflichtet werden, ihre Border Gateways kryptografisch abzusichern, damit sie weniger anfällig gegen falsche oder manipulierte Datenroutings werden. Das hat die Regulierungsbehörde FCC (Federal Communications Commission) am Donnerstag einstimmig beschlossen. Grund ist, dass die Routingtabellen des Internet (Border Gateway Protocol, BGP) anfällig sind für Fehler und absichtliche Manipulation. Durch "BGP-Hijacking" wird Datenverkehr böswillig umgeleitet, untergeschoben oder zum Erliegen gebracht.

"BGP hat Netzbetreibern ermöglicht, zu wachsen und das moderne Internet hervorzubringen, aber es wurde nicht mit ausdrücklichen Sicherheitsfunktionen designt, um Vertrauen in die ausgetauschten Informationen sicherzustellen", sagte FCC-Vorsitzende Jessica Rosenworcel anlässlich des FCC-Beschlusses. "Ich möchte dem Verteidigungsministerium und dem Justizministerium dafür danken, dass sie öffentlich gemacht haben, dass China Telecom BGP genutzt hat, um US-Internetverkehr bei mindestens sechs Gelegenheiten umzuleiten. Diese BGP-Highjackings können personenbezogene Daten offenlegen und Diebstahl, Erpressung und staatliche Spionage ermöglichen." Diese Offenlegung hat Rosenworcel sicherlich dabei geholfen, auch die Unterstützung ihrer FCC-Kollegen aus der Republikanischen Reichshälfte zu bekommen. Denn die Sicherungspflicht für das BGP ist eine Initiative der FCC-Chefin [1], die Demokratin ist.

Die FCC möchte US-Breitbandanbieter zunächst dazu verpflichten, ihre Datenrouten mit RPKI (Resource Public Key Infrastructure) abzusichern. Das hilft gegen irrtümlich falsche Routen. Mindestens jährlich sollen Provider vertrauliche BGP security risk management plans mit Umsetzungsstand und -plänen einreichen. Erst wenn RPKI ausgerollt ist, kann die nächste Sicherheitsmaßnahme BGPsec greifen, die besseren Schutz gegen absichtliches BGP-Hijacking bietet.

Die neun größten ISP des Landes sollen ihre Berichte sogar quartalsweise erstatten, bis sie ein annehmbares Sicherheitsniveau erreicht haben. Zusätzlich sollen sie bestimmte Informationen quartalsweise öffentlich machen müssen. Kleine Betreiber würden von regelmäßiger Berichtspflicht ausgenommen, müssten der FCC allerdings auf Anfrage einschlägige Informationen geben. Die entsprechende FCC-Verordnung geht nun in Begutachtung (Notice of Proposed Rulemaking FCC 24-62), bei der Interessierte Stellungnahmen einreichen können.

BGP und RPKI

Das BG-Protokoll (RFC 1105) spezifiziert den Austausch von Informationen zwischen Routern, auf deren Basis sie die beste Route für die zwischen ihren Netzen – den Autonomen Systemen (AS) – übermittelten Datenpaketen identifizieren können. In Routing-Tabellen halten die Border-Router die besten Pfade fest. Das Border Gateway Protocol krankt daran, dass es aus einer Zeit stammt, als man einander im Netz vertraut hat. Jeder darf beliebige Routen verlautbaren, automatische Kontrollen sind nicht vorgesehen.

Beim sogenannten Präfix-Hijacking gibt ein Angreifer die Präfixe seiner Opfer als eigene aus. Beispielsweise kann das angreifende Netz spezifischere Adressen aus dem Netz des Opfers ankündigen oder behaupten, eine Abkürzung zu bestimmten IP-Adressblöcken zu bieten. Router ohne RPKI müssen das einfach glauben.

Mit RPKI (RFC 6840 plus über 40 weitere RFCs [2]) kann mittels Route Origin Authorisations (ROA )festgelegt werden, für welche IP-Präfixe ein Autonomes System verantwortlich ist. Kündigt es plötzlich andere IP-Präfixe an, löst das Alarm aus. Damit sollen in erster Linie die häufig vorkommenden Fehler bei der Ankündigung von Routen verhindert werden. Das vielleicht bekannteste Beispiel dafür ist die Umleitung von YouTube-Verkehr zur Pakistan Telecom.

Zukunftsmusik BGPsec

Theoretisch gibt es seit 2017 auch eine Waffe gegen absichtliches BGP-Hijacking: BGPsec (RFC 8204) [3]. Es sichert die Routing-Informationen auf dem Weg durch das Netz ab. Statt allein die Authentizität des Ursprungs einer Routenankündigung zu prüfen, soll so sichergestellt werden, dass entlang des Pfades keine Manipulationen passieren. Es hülfe aber nur, wenn erstens RPKI ausgerollt ist und zweitens alle Netzbetreiber gleichzeitig auf BGPsec umstellten, sodass unsignierte Informationen ignoriert werden dürften. Eine solche Umstellung ist nicht in Sicht, weil dafür viele Router ausgetauscht werden müssen und die Netzbetreiber erheblichen Mehraufwand für die Verwaltung all der BGPsec-Schlüssel hätten, die für jeden Routing-Hop notwendig sind.

Außerdem setzt BGPsec voraus, dass man den Ausstellern der kryptografischen Zertifikate vertraut. Stehen diese Stellen jedoch unter staatlicher Kontrolle, ist vielleicht nicht viel gewonnen. Denn die meisten Manipulationen gehen auf Täter aus korrupten Ländern oder gar auf staatliche Akteure, die ihre eigenen Interessen verfolgen, zurück. Sie könnten auch Zertifikate ausstellen, die ihren Attacken den Anschein von Legitimität verleihen.

Detektor für Firmennetze

Berühmt ist ein Fall aus 2013; damals wurde 21 Mal Datenverkehr aus anderen Ländern, darunter Deutschland, Iran, Südkorea und die USA, über Weißrussland geroutet -- manchmal für einige Minuten, manchmal aber auch stundenlang. Aufgefallen ist das erst nach Wochen. Um solche Vorfälle schnell aufzudecken, hat eine Gruppe an der Informatik-Fakultät der Universität Indiana in Bloomington vor sieben Jahren ein Programm namens Bongo veröffentlicht.

Bongo ist für lokale Netze gedacht, die BGP-Routing-Daten [4] von ihrem Internetprovider erhalten, beispielsweise Firmen und Universitäten. Der Administrator kann für jedes Autonome System einstellen, welche Länder im Routing (nicht) auftauchen dürfen. Erspäht die Software eine nicht akzeptable Route, kann sie, je nach Konfiguration, den Administrator alarmieren oder selbst die Firewall anweisen, den Datenstrom zum entsprechenden Autonomen System zu unterbinden.


URL dieses Artikels:
https://www.heise.de/-9751340

Links in diesem Artikel:
[1] https://www.heise.de/news/FCC-Chefin-will-das-Border-Gateway-Protocol-absichern-9721893.html
[2] https://blog.apnic.net/2021/03/15/which-rpki-related-rfcs-should-you-read/
[3] https://datatracker.ietf.org/doc/html/rfc8205
[4] https://www.heise.de/news/Bongo-gegen-BGP-Hijacking-Wohin-lassen-Sie-Ihre-Daten-fliessen-4647808.html
[5] mailto:ds@heise.de

Copyright © 2024 Heise Medien

Adblock test (Why?)

✇ FreshRSS.org

FreshRSS 1.24.1

Von Alkarex — 05. Juni 2024 um 17:35

This is a bug-fix release for the 1.24.0 release, addressing several regressions.

A few highlights ✨:

  • New button to export OMPL of a category
  • Many bug fixes

This release has been made by @Alkarex, @math-GH, and newcomers @ramazansancar, @robinmetral

Full changelog:

  • Features
    • New button to export OMPL of a category #6519
    • Better git error messages in built-in Web update #6496
  • Bug fixing
    • Fix regression HTTP GET curl options #6492
    • Fix regression of mark as read if an identical title already exists #6536, #6543
    • Fix connection to PostgreSQL databases with uppercase letters #6482
    • Fix UI regression hover over title while having the navigation buttons in mobile view #6486
    • Fix UI for some drag & drops #6505, #6508
  • i18n
  • Misc.
✇ heise Netze

Milliardenfonds und Infrastruktur-Angebot: Cisco setzt voll auf KI

Von Heise — 05. Juni 2024 um 11:56
Firmenlogo Cisco

(Bild: Michael Vi/Shutterstock.com)

In Kooperation mit Nvidia will Cisco auch im Bereich der Infrastruktur vom KI-Boom profitieren. Nexus HyperFabric AI Cluster heißt das neue Gesamtpaket.

Cisco möchte künftig die Basisinfrastruktur für KI-Projekte als Gesamtpaket anbieten. Dazu zeigte der Hersteller auf der Hausmesse Cisco Live in Las Vegas sein Konzept Nexus HyperFabric AI Cluster. Das soll die Bereitstellung der Basisinfrastruktur vereinfachen, mit der sich generative KI-Modelle und -Anwendungen implementieren, verwalten und überwachen lassen. Das soll sogar ohne tiefgreifende IT-Kenntnisse und Fähigkeiten machbar sein, verspricht Cisco. Parallel zur Kooperation hat Cisco einen Milliarden-Fonds für KI-Startups aufgelegt.

Dazu setzt sich die Infrastruktur aus unterschiedlichen Bestandteilen zusammen. Als modulare Server-Architektur für KI greift Cisco auf Nvidia MGX zurück. Zur Optimierung der Entwicklung und des Einsatzes von generischen KI-Workloads soll Nvidias AI-Enterprise-Software gepaart mit deren NIM-Microservices zur beschleunigten Bereitstellung der grundlegenden Modelle genutzt werden. Als GPU kommen Nvidias Tensor-Core-GPUs beginnend mit dem Nvidia H200 NVL zum Einsatz. Um Zugriffsgeschwindigkeiten zu optimieren und gleichzeitig Sicherheitsrichtlinien anwenden zu können, setzt man auf Nvidia BlueField-3 DPUs und BlueField-3 SuperNICs als funktionserweiterte Netzwerkkarten. Mit Nvidia arbeitet Cisco bereits auch schon in anderen Bereichen zusammen [1].

Strategische KI-Investitionen

Für das Management mit den entsprechenden Workflows stellt Cisco eine Cloud-Anwendung bereit. Die zugrunde liegende Netzwerkinfrastruktur fußt auf Ciscos Nexus-6000-Rechenzentrumsswitchen für eine Leaf-Spine-Architektur. Diese soll eine 400G- und 800G-Fabric bereitstellen, wofür Cisco auch entsprechende QSFP-DD-Optiken bereitstellt. Zur Datenspeicherung und als zugrunde liegende Datenbank setzt Cisco auf die VAST Data Plattform.

Ausgewählte Kunden können das Gesamtpaket ab dem vierten Quartal 2024 testen. Die allgemeine Verfügbarkeit soll laut Cisco kurz darauf folgen.

Parallel dazu hat Cisco einen Investitionsfonds in Höhe von einer Milliarde US-Dollar aufgelegt. Er soll strategische Investitionen in Start-ups tätigen, um die Basis für sichere, zuverlässige und vertrauenswürdige KI-Lösungen zu schaffen. Erste Investments für generative KI flossen bereits in die Start-ups Cohere, Mistral AI und Scale AI. Sie sollen das KI-Ökosystem vervollständigen.


URL dieses Artikels:
https://www.heise.de/-9748560

Links in diesem Artikel:
[1] https://www.heise.de/news/InfiniBand-oder-Ethernet-fuer-den-KI-Cluster-Cisco-und-Nvidia-lassen-die-Wahl-9627166.html
[2] https://www.heise.de/ix/
[3] mailto:axk@heise.de

Copyright © 2024 Heise Medien

Adblock test (Why?)

✇ heise Netze

CDU-Angriff: Lücke in Check Point Gateway soll Einfallstor gewesen sein

Von Heise — 03. Juni 2024 um 16:16
Fassaden-Detail der CDU-Parteizentrale in Berlin​ mit Parteilogo.

CDU-Parteizentrale in Berlin

(Bild: Shutterstock/Electric Egg)

Eine kürzlich geschlossene Schwachstelle in Netzwerksicherheits-Produkten des Anbieters Check Point soll laut Insidern den Angriff auf CDU ermöglicht haben​.

Der am Freitag bekanntgewordene Cyber-Angriff auf die CDU-Parteizentrale erfolgte laut gut unterrichteten Kreisen unter Ausnutzung einer Schwachstelle in Check Point Network Security Gateways. Die CDU äußerte sich auf Anfrage von heise online am Montag nicht zum Stand der Untersuchung.

Check Point hatte Ende Mai einen Fix für die als CVE-2024-24919 benannte, als kritisch eingestufte Sicherheitslücke [1] veröffentlicht. Laut Check Point wurden dabei Remote-Zugänge genutzt, die ausschließlich passwortgeschützt waren, um Zugriff auf die Security Gateways zu erlangen und von dort aus weiter ins Netz der Attackierten vorzudringen. Die Schwachstelle wurde bereits aktiv ausgenutzt.

Phishing-Angriff

Unter den davon betroffenen Nutzern von Check-Point-Software ist laut mit der Materie vertrauten Personen die Parteizentrale der CDU. In Kombination mit einem Phishing-Angriff habe die Ausnutzung der Lücken zu den am Samstag berichteten Vorfällen bei der CDU [2] geführt.

Auch das Bundesamt für Verfassungsschutz, das einbezogen wurde, äußert sich vorerst nicht weiter zum Geschehen. Die Parteien, der Bundestag sowie die Fraktionsspitzen wurden von der für Spionageabwehr zuständigen Behörde über mögliche zusätzliche Sicherheitsvorkehrungen in Kenntnis gesetzt.

Wie das Bundesinnenministerium am Mittag in Berlin erklärte, handele es sich um einen "schwerwiegenden Angriff". Die Art und Weise des Vorgehens deute auf einen professionellen Akteur hin. Angriffsversuche nach dem Muster der Attacke auf die CDU soll es auch bei Bundestagsfraktionen und anderen Parteien gegeben haben – allerdings wohl ohne Erfolg.

"Hack and Leak" kurz vor der Wahl?

Der Vorfall hatte auch deshalb für große Unruhe gesorgt, weil der Hack nur eine Woche vor den Europawahlen bekannt wurde. Vor kurzfristigen "Hack and Leak"-Aktionen hatten Sicherheitsfachleute im Vorfeld der Europawahlen immer wieder gewarnt: Dadurch erlangte Informationen könnten neu kontextualisiert und für Propaganda gezielt gestreut werden. Sie seien dann bis zum Wahltermin kaum mehr wirksam zu entkräften.

Ob das ein Ziel der Angreifer auf die Systeme der CDU war, ist derzeit unbekannt – genau wie die Urheberschaft. Eine sprachlich misslungene Spear-Phishing-Attacke auf die CDU im Februar war der Gruppe APT29 zugerechnet worden, die zum Umfeld des russischen Militärgeheimdiensts GRU zählt. Dazu gehört auch die Gruppe APT28, der die Attacke auf die SPD über den Jahreswechsel 2022/23 offiziell durch die Bundesregierung zugeschrieben wurde [3].


URL dieses Artikels:
https://www.heise.de/-9745917

Links in diesem Artikel:
[1] https://www.heise.de/news/Notfallpatch-Angreifer-attackieren-VPN-Verbindungen-von-Check-Point-Gateways-9741056.html
[2] https://www.heise.de/news/Notfallpatch-Angreifer-attackieren-VPN-Verbindungen-von-Check-Point-Gateways-9741056.html
[3] https://www.heise.de/news/Bundesregierung-Russland-fuer-Cyber-Angriff-auf-SPD-verantwortlich-9706578.html
[4] mailto:vbr@heise.de

Copyright © 2024 Heise Medien

Adblock test (Why?)

✇ Developer-Blog - the next big thing

Künstliche Intelligenz ist unser Untergang

Von Golo Roden — 03. Juni 2024 um 09:55
Künstliche Intelligenz: Roboter mit Klemmbrett vor Globus

(Bild: Bild erstellt mit KI in Bing Designer durch heise online / dmk)

KI spielt eine viel größere Rolle im Alltag, als die meisten Menschen annehmen. Doch sind wir als Gesellschaft wirklich bereit dafür?

Im Allgemeinen bin ich ein sehr optimistischer Mensch, aber es gibt Entwicklungen in der Gesellschaft, die mir ernsthafte Sorgen bereiten. Dabei meine ich nicht speziell die aktuellen politischen Entwicklungen in Deutschland oder das allgemeine Weltgeschehen an sich, obwohl es in beiden Fällen sicherlich einiges gäbe, worüber man sich sorgen könnte. Stattdessen geht es mir heute um ein Thema, das einerseits zwar sehr konkret ist und annähernd alle Menschen betrifft, das andererseits aber vielen nicht greifbar erscheint, da es sehr abstrakt und weit weg von dem Alltag der meisten Menschen ist – oder zumindest glauben die meisten Menschen, dass dem so sei.

Worum es mir heute geht, ist der Einfluss von Künstlicher Intelligenz auf unsere Gesellschaft. Dazu habe ich drei Thesen, die ich gerne teilen und sachlich in den Kommentaren diskutieren möchte. Warum gerade jetzt? Weil OpenAI, das Unternehmen hinter ChatGPT, am vergangenen Donnerstag ein neues Angebot veröffentlicht hat, nämlich ChatGPT EDU [1] (also ChatGPT for Education). Das bedeutet im Wesentlichen, dass OpenAI nun aktiv versucht, ChatGPT im Bildungsbereich zu etablieren. Dazu wurden spezielle Angebote für Universitäten, Hochschulen und, was besonders wichtig ist, auch für normale Schulen ins Leben gerufen.

Künstliche Intelligenz in der Bildung

Das ist zugegebenermaßen ein Schritt, der in gewissem Sinne längst überfällig ist. Denn wenn man sich mit Schülerinnen und Schülern oder auch mit Studentinnen und Studenten unterhält, dann gehört der Einsatz von KI für diese längst zum Alltag. Das sehen vielleicht die Eltern und die Lehrkräfte nicht so gerne und es wird häufig mit Verboten gedroht, aber seien wir mal ehrlich: Das ändert die Realität nicht. Man kann sich dann zwar einreden, man hätte etwas gegen den vermeintlichen drohenden Bildungsverfall getan, aber man vergisst oder ignoriert dabei ganz bewusst, dass Verbote den technischen Fortschritt noch nie nennenswert aufgehalten haben.

Und damit komme ich auf meinen Ausgangspunkt für den heutigen Blogpost: Natürlich können wir den Einsatz von Künstlicher Intelligenz verbieten, wir können ihn reglementieren und begrenzen und wir können natürlich vor allem auch hoffen, dass das irgendetwas nützen wird. Aber zum einen ist das unrealistisch, zum anderen wird irgendjemand auf dieser Welt einen Weg finden, Künstliche Intelligenz konstruktiv in der Bildung einzusetzen. Ich möchte jetzt nicht in das übliche Gejammer über Deutschland oder Europa als Standort einstimmen, aber ich denke, es ist nicht verkehrt zu sagen, dass Europa und insbesondere Deutschland bislang keine allzu gute Figur machen [3], was den Umgang mit der digitalen Welt im Unterricht und in der Lehre angeht.

Tatsächlich war das in den vergangenen Jahrzehnten schon ein Problem, aber das wird jetzt mit der immer höheren Entwicklungsgeschwindigkeit ein immer schwerwiegenderes Problem werden. Wenn wir den Anschluss an die Welt nicht verpassen wollen, haben wir einen ganz dringenden Nach- und Aufholbedarf.

Der Ausgangspunkt

Nun ist nicht per se alles schlecht, was aus Europa kommt oder was Europa macht. Meiner persönlichen Meinung nach haben wir auch durchaus eine große Stärke, beispielsweise im Vergleich zu den USA: Wir springen nicht wahllos auf jede neue Technologie auf, sondern tendieren dazu, erst einmal abzuwarten, zu beobachten, über die Konsequenzen bestimmter Dinge nachzudenken, uns Gedanken zu machen und dann einen wohlüberlegten Pfad einzuschlagen. Das ist etwas, das mir Hoffnung gibt. Aber wir dürfen uns nicht zu lange Zeit lassen mit diesem "wohlüberlegten Pfad", denn die Zeit spielt gegen uns.

Bis hierhin also zusammengefasst: Wir müssen uns Gedanken über den richtigen Einsatz von Künstlicher Intelligenz machen, insbesondere in der Bildung, aber auch im gesamtgesellschaftlichen Kontext. Wenn wir nur das Schlechte sehen, laufen wir Gefahr, den Anschluss zu verpassen. Man darf aber auch nicht nur die Chancen sehen, denn dann verrennt man sich und vergisst, über einige Dinge nachzudenken, über die man vielleicht besser nachgedacht hätte und die man später eventuell bereuen wird.

These #1: Künstliche Intelligenz schadet der Bildung, ist zugleich aber unerlässlich für die Bildung

Vor diesem Hintergrund möchte ich heute gerne drei Thesen aufstellen. Erstens: "Künstliche Intelligenz schadet der Bildung, ist zugleich aber unerlässlich für die Bildung". Was meine ich damit? KI schadet der Bildung, weil sie dazu verführt und verleitet, nicht mehr selbst zu denken. Anders als bei einem Taschenrechner, bei dem ich grundsätzlich noch wissen muss, wie ich eine gestellte Aufgabe vom Lösungsweg her bearbeite, kann ich einer KI einfach sagen: "Das hier ist die Aufgabenstellung, löse das für mich!" – und die KI wird das machen. Ob sie das nun gut oder schlecht macht, ob das Ergebnis nachher richtig oder falsch ist, das steht dabei auf einem anderen Blatt. Fakt ist aber auf jeden Fall: Die Antwort, die ich von der KI erhalte, wird so oder so sehr eloquent und überzeugend formuliert sein.

Und einerseits ist das ein enormer Produktivitäts- und Effizienz-Boost. Ich kann um Welten schneller Texte schreiben, Daten auswerten, Übersetzungen anfertigen, komplexe Zusammenhänge analysieren und vieles mehr. Deshalb ist KI unerlässlich für die Bildung. Denn Bildung bedeutet stets auch Forschung, und KI ist ein unglaublich mächtiges Instrument, um Forschung zu beschleunigen und Dinge zu ermöglichen, von denen man vorher nicht einmal zu träumen gewagt hätte. Der Punkt ist jedoch, dass die Ergebnisse der KI kritisch hinterfragt werden müssen. Eben weil sie mit derselben Eloquenz eine korrekte und wahre Aussage formulieren kann, wie sie das auch mit dem größten Blödsinn machen kann. Das heißt, einer Künstlichen Intelligenz darf nicht blind vertraut werden, sondern es ist notwendig, die Ergebnisse zu überprüfen und zu validieren.

Eigentlich ist das auch gar nichts Neues. In der Bildung und Forschung sollte generell jegliche Quelle überprüft werden, doch genau dieser Punkt, wie man das macht, kommt in der Lehre viel zu kurz. In der Schule lernt man zwar, Argumentationen zu schreiben und Zeitschriftenartikel zu lesen, aber man lernt nicht, wie man ebensolche Zeitschriftenartikel oder sonstige Quellen auf ihre Vertrauenswürdigkeit oder ihren Wahrheitsgehalt überprüft. Es wird zwar in der Schule gefordert, dass Schülerinnen und Schüler beispielsweise bei Referaten Quellennachweise liefern, aber wie es um die Qualität der Quellen steht, das wird im Unterricht nicht behandelt.

Im jugendlichen Alter kann man langfristig froh sein, wenn man ein Elternhaus hat, das in der Lage ist, eine gewisse Medienkompetenz zu vermitteln. Das ist nämlich einer der Aspekte, an denen das Schulwesen seit Jahren und Jahrzehnten krankt: Und was in der analogen Welt schon nicht gut funktioniert hat, funktioniert nun im Digitalen erst recht nicht.

Das heißt, um Künstliche Intelligenz in der Bildung effektiv und effizient nutzen zu können, brauchen wir ein kritisches Denken und Hinterfragen der KI. Dieses kritische Denken und Hinterfragen muss jedoch außerhalb der KI erlernt werden. Und das muss schleunigst beginnen, denn wenn das nicht passiert, dann wächst eine Generation heran, die zwar nie dagewesene technische Möglichkeiten zur Verfügung hat, diesen aber blind vertraut, dadurch ihre Eigenständigkeit verliert und in eine Abhängigkeit zur KI beziehungsweise zur Technologie im Allgemeinen gerät. Und das wäre nicht gut.

These #2: KI braucht Erfahrung

Die zweite These, auf die mich ein befreundeter Unternehmer gebracht hat, lautet: "KI braucht Erfahrung". Was bedeutet das? Im Prinzip setzt es genau das fort, wo wir gerade aufgehört haben: Um KI nämlich effektiv und effizient nutzen zu können, brauchen wir ein kritisches Denken und Hinterfragen der Ergebnisse, die die Künstliche Intelligenz liefert. Und was braucht es, um das machen zu können? Nun, Menschen sind immer dann gut darin, Dinge zu hinterfragen und skeptisch zu durchleuchten, wenn sie selbst über Wissen und vor allem über Erfahrung in dem jeweiligen Bereich verfügen.

Der Haken ist nun aber: Um Erfahrung zu sammeln, muss man selbst bestimmte Wege beschreiten und scheitern. Denn die Fehler, die man gemacht hat, sind das, woraus man am Ende am meisten lernt. Es heißt ja nicht umsonst: "Aus Fehlern wird man klug."

Der Punkt ist aber, dass dafür viele Wiederholungen des Weges erforderlich sind, und die KI uns jedoch genau diese Wiederholungen abnimmt, indem sie bereits beim ersten Anlauf ein passabel klingendes Ergebnis liefert. Ist das Ergebnis auch faktisch halbwegs korrekt, dann machen wir nach und nach die Erfahrung, dass wir der KI blind vertrauen können. Das funktioniert natürlich nur so lange, bis die KI einmal kein vernünftiges Ergebnis liefert, nur das kann man dann eventuell gar nicht mehr im Vorfeld von einem guten Ergebnis unterscheiden, weil dafür die Erfahrung fehlt. Es handelt sich also um einen Teufelskreis: KI nimmt uns das Üben ab, deshalb sammeln wir keine Erfahrung mehr, aber genau diese Erfahrung bräuchten wir, um die Ergebnisse der KI überprüfen und hinterfragen zu können.

Das heißt, je länger das so läuft, desto schlechter wird die eigene, vom Menschen gelebte Fehlerkultur, und desto schlechter werden die Fähigkeiten, Behauptungen und Konsequenzen überblicken und abschätzen zu können. Das wiederum hat langfristige Auswirkungen auf die Resilienz und führt zur Erosion wichtiger geistiger Fähigkeiten.

These #3: Künstliche Intelligenz führt zu einem dramatischen Vertrauensverlust und letztlich zum Zusammenbruch der Globalisierung

Das wiederum bringt mich zu meiner dritten These, denn das wirft die Frage auf, wem oder was wir dann überhaupt noch vertrauen. Die These lautet: "Künstliche Intelligenz führt zu einem dramatischen Vertrauensverlust und letztlich zum Zusammenbruch der Globalisierung". Denn wenn wir nicht mehr in der Lage sind, die Ergebnisse von Künstlicher Intelligenz zu bewerten, und Künstliche Intelligenz zugleich eine immer größere Rolle in unserem gesellschaftlichen Alltag spielt, führt das über kurz oder lang zu einem Szenario, in dem wir nicht mehr wissen, wem wir überhaupt noch vertrauen können. Je stärker Fake News werden und je besser generative KI wird, desto leichter wird es, der Gesellschaft ein Weltgeschehen vorzuspielen, das in der Realität vielleicht gar nicht passiert.

Und das führt dann zu einem massiven Rückzug ins Lokale. Das, was ich selbst erlebe, das glaube ich. Das, was mir meine Familie berichtet, nehme ich auch mit sehr hoher Wahrscheinlichkeit als wahr an. Bei meinen Nachbarn bin ich schon ein wenig skeptischer, aber ihnen vertraue ich immer noch mehr als der Verkäuferin beim Bäcker oder meinem Friseur. Und denen wiederum vertraue ich eher als irgendjemandem, dem ich auf der Straße begegne. Auch das ist im Grunde nichts anderes als heute, aber: Der allgemeine Vertrauensverlust außerhalb des selbst Erfahrbaren führt dazu, dass wir auch den großen Medien nicht mehr vertrauen (und das sieht man in manchen Teilen der Bevölkerung auch heute schon). Und damit wird auf einmal infrage gestellt, was auf der anderen Seite der Welt passiert: Denn, ob dort wirklich Krieg herrscht, ob wirklich ein Erdbeben stattgefunden hat, ob wirklich dies und jenes passiert ist, lässt sich für mich als Einzelner nicht mehr nachprüfen. Und wem vertraue ich dann noch?

Worauf das Ganze hinausläuft

Ich persönlich glaube an der Stelle, dass wenn man diese drei Thesen zusammennimmt (also erstens: "KI schadet der Bildung, ist aber zugleich unerlässlich für die Bildung", zweitens: "KI braucht Erfahrung" und drittens: "KI führt zu einem dramatischen Vertrauensverlust und letztlich zum Zusammenbruch der Globalisierung"), dann sind das nicht sonderlich rosige Aussichten, die wir vor uns haben. Ich habe zu Beginn dieses Blogposts geschrieben, man dürfe nicht alles nur pessimistisch sehen und nicht alles von vornherein ablehnen, aber eines dürfte vor diesem Hintergrund wohl überhaupt keine Frage mehr sein: Nämlich, dass wir äußerst dringend einen grundlegend anderen Umgang mit KI benötigen, eine gesellschaftliche Awareness für diese Themen, und nachhaltige Ansätze für die Bildung der nachkommenden Generationen. Denn damit legen wir den Grundstein für den Fortbestand unserer Gesellschaft und, wenn man so will, sogar der gesamten Menschheit.

Sollten wir das nicht hinbekommen und wenn wir nicht aufpassen, dann steuern wir auf eine Gesellschaft zu, die zwar technologisch hoch entwickelt ist, aber soziologisch und emotional immer mehr verkümmert. Das führt zu einem Paradoxon, das allerdings gar nicht so neu ist: Je höher die Technologie entwickelt ist, desto stärker degeneriert eine Zivilisation. Irgendwann, wenn eine solche Entwicklung erst einmal ins Rollen gekommen ist, entsteht auf diesem Weg eine Gesellschaft, die kraft- und schwunglos geworden ist, obwohl sie (im übertragenen Sinne) die Fähigkeiten hätte, nach den Sternen zu greifen.

Übrigens, auch da bin ich nicht der Erste, der sich solche Gedanken macht: Bereits 1961, in der Science-Fiction-Serie "Perry Rhodan", ist genau dies das Schicksal, das die Arkoniden ereilt hat, die erste außerirdische Zivilisation, mit der die Menschheit in Kontakt tritt. Die wenigen Arkoniden, die es noch gibt, berichten von genau diesem Verfall der Gesellschaft, und zwar aufgrund einer technologisch immer weiter voranschreitenden Entwicklung, die irgendwann dazu geführt hat, dass das Verhältnis von Technologie und dem eigenen Streben nach Mehr ins Wanken geraten und schließlich gekippt ist.

Was wir tun müssen

Zugegebenermaßen ist das keine sonderlich erstrebenswerte Zukunft, die ich da skizziert habe, und wie ich zu Beginn dieses Blogposts geschrieben habe, scheint ein solches Szenario für viele Menschen noch sehr weit entfernt zu sein. Aber: Wenn ich überlege, wie unglaublich viel sich in der verhältnismäßig kurzen Zeit, die ich persönlich auf diesem Planeten miterlebt habe, getan hat, und wenn ich mir überlege, was unsere Kinder und Enkelkinder für eine Welt vorfinden werden, in welche Welt sie ungefragt hineingeboren werden, dann glaube ich, dass wir doch irgendwo in der Verpflichtung stehen, uns über solche Themen Gedanken zu machen. Darin muss meiner Meinung nach deutlich mehr sein als: "Wir statten Schulen jetzt mit iPads aus und tun dann so, als wäre das der Gipfel der Digitalisierung".

Der kritische Umgang mit digitalen Medien ist das A und O, um zukünftig eine stabile Gesellschaft bilden zu können. Und daran scheitern wir aktuell grandios. Wirklich jede und jeder hat heute ein Smartphone, und die IT ist die sich am stärksten verbreitende und im wahrsten Sinne des Wortes die am stärksten durchdringende Technologie des vergangenen Jahrtausends. Aber wir haben heute kaum mehr Menschen, die sich fundiert mit diesen Themen beschäftigen als in den 90er-Jahren, als ich selbst angefangen habe, mich für Programmierung zu interessieren. Wir können keine Gesellschaft auf Technologien aufbauen, die wir zunehmend nicht mehr verstehen. Denn wenn wir das tun, ist das der Anfang vom Ende. Dann haben wir die Hoch-Zeit unserer Gesellschaft hinter uns. Und wenn wir das nicht wollen, dann sollten wir dem, wie gesagt, ganz dringend entgegenwirken – nur ist das keine technologische Herausforderung. Annehmen sollten wir sie trotzdem.


URL dieses Artikels:
https://www.heise.de/-9744682

Links in diesem Artikel:
[1] https://openai.com/index/introducing-chatgpt-edu/
[2] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[3] https://www.heise.de/meinung/KI-Navigator-3-Deutschland-und-Europa-haben-bei-KI-den-Anschluss-verloren-9721507.html
[4] mailto:rme@ix.de

Copyright © 2024 Heise Medien

Adblock test (Why?)

✇ heise Netze

Volker Wissing: "KI wird Alltag, Wettbewerbsfähigkeit und Sicherheit bestimmen"

Von Heise — 31. Mai 2024 um 15:57

Chinesische Netzausrüster, Ampel-Versprechen und eine KI-Aufsichtsbehörde: c't hat Volker Wissing zur Digitalpolitik befragt.

Wie erfolgreich ist die Digitalpolitik der Bundesregierung? c't hat Volker Wissing, Bundesminister für Digitales und Verkehr, in Berlin getroffen, um nach drei Jahren Ampelkoalition ein Zwischenfazit zu ziehen. Im Interview betont Wissing den Fortschritt beim Netzausbau, während er sich beim möglichen Ausschluss chinesischer Ausrüster alle Optionen offen hält. Außer Zweifel steht für Wissing der Stellenwert, den KI in unserem Leben einnehmen wird. Er will Aufsicht haben und ein Zertifizierungssystem aufbauen – und hat bereits seinen Favoriten für eine KI-Aufsichtsbehörde ausgewählt.

Volker Wissing im Gespräch mit c't-Autor Falk Steiner.

(Bild: c't/Nadja Wohlleben)

Herr Wissing, das Fortschrittsversprechen der Ampel wurde auch für die Digitalisierung gegeben. Wie viel davon ist eingelöst worden?

Wir haben große Fortschritte bei der digitalen Infrastruktur. 97 Prozent Abdeckung mit 4G, gut 91 Prozent mit 5G, 50 Prozent mehr Glasfaseranschlüsse innerhalb eines Jahres. Die Gigabit-Strategie fliegt. Wir haben Fortschritte bei der Umsetzung der Digitalstrategie: in der Gesundheitspolitik das E-Rezept, die elektronische Patientenakte, das Gesundheitsdatennutzungsgesetz und damit die Zukunftssicherung für den Pharma- und Medizin-Forschungsstandort Deutschland. Wir haben i-KFZ und den Einstieg in die digitale Zulassung, die e-ID, die der Schlüssel ist, um digital mit dem Bürger zu kommunizieren.

Überall sieht man, dass sich etwas tut. Bei der Bahn, der Modernisierung des ÖPNV, haben wir die Digitalisierung ebenfalls vorangetrieben, aber noch nicht in allen Strukturen nachvollzogen.

Die e-ID ist ein sogenanntes Hebelprojekt der Digitalstrategie: Voraussetzung für erfolgreiche Digitalisierung. Passiert ist dabei wenig. Heißt das, die Digitalstrategie kann nun nicht mehr funktionieren?

Nein. Das Innenministerium steht in der Verantwortung, dass eine anwenderfreundliche digitale Identität kommt – und das BMI arbeitet daran, auch was die Einbindung in ein gesamteuropäisches Konzept angeht. Die e-ID ist ein ganz wichtiger Hebel: Wenn der Staat Identität nicht digital feststellen kann, gibt es immer nur eine teildigitale Verwaltung.

Als Mittel knapp wurden, wurde hier zuerst gespart. Digitalisierung sollte zu Beginn der Legislatur prioritär sein, die Idee war ein Digitalbudget als Garantie, dass zentrale Vorhaben garantiert sind – könnte das nun doch noch kommen?

Wir haben bisher gezeigt, dass es ohne Digitalbudget geht, weil einzelne Ressorts umgeschichtet und ausreichend Haushaltsmittel für ihre Digitalprojekte zur Verfügung gestellt haben.

Bei der e-ID gibt es einen größeren Finanzbedarf, aber auch das kann man lösen, indem man nochmal priorisiert. Ob ein Digitalbudget zur Umsetzung der e-ID notwendig ist, kann man erst nach Ende der Haushaltsberatungen sagen.

"KI wird unseren Alltag, unsere Wettbewerbsfähigkeit und Sicherheit in einem Maße bestimmen, dass wir diese Technologie selbst in den Händen halten müssen."

(Bild: c't/Nadja Wohlleben)

Die KI-Verordnung ist verabschiedet, wird in Kraft treten. Kritik daran gibt es aus vielen Richtungen. Ist Deutschland für das KI-Zeitalter gerüstet?

Künstliche Intelligenz wird unseren Alltag, unsere Wettbewerbsfähigkeit und Sicherheit in einem Maße bestimmen, dass wir diese Technologie selbst in den Händen halten müssen. Wir dürfen hier keine Fehler machen und dadurch Souveränität verlieren.

Deswegen dürfen wir bei der Regulierung die Entwicklung von KI nicht behindern, sondern müssen durch innovationsfreundliche Regelungen unterstützen. Das erfordert Mut. Weil wir heute nicht alles wissen, was KI kann oder in naher Zukunft können wird. Die Entwickler selbst stehen ja mit Demut vor den Möglichkeiten. Wenn aber der Staat bremsend eingreift, suchen sich kreative Köpfe andere Standorte. Es muss experimentiert werden, Entwickler brauchen Freiräume.

Sehen Sie dafür Bereitschaft bei den Unternehmen in Deutschland?

Ja! Ich sehe mit großer Freude, dass Mittelständler in Deutschland investieren. Und ich finde das sehr gut, weil es auch unsere Werte absichert. Für deutsche Unternehmer ist das nicht nur ein reines Geschäft, sie verfolgen auch ethische Ziele.

Trotzdem müssen wir als Staat darauf achten, nachvollziehen zu können, was passiert. Ich nenne das Beispiel Bankenkrise. Da hieß es: Der Staat muss nicht eingreifen, die Banken regulieren sich selbst im Wettbewerb. Im Ergebnis haben sich die Finanzmärkte ein System geschaffen, in dem niemand mehr zur Verantwortung gezwungen wurde.

Das befürchten Sie bei KI auch?

Nein, aber wir müssen aus der damaligen Zeit lernen. Nach der Finanzkrise wurde gefragt: Warum hat der Staat das nicht bemerkt? Es war so ziemlich alles mit Triple-A-Ratings versehen, man hat sich in falscher Sicherheit gewähnt und meinte, da sei kein Risiko. Das System war dem Staat entglitten. Die Geschwindigkeit, mit der die Finanzmärkte sich entfesselt haben, und das Tempo, mit dem Aufsichts- und Kontrollstrukturen aufgebaut wurden, waren völlig asymmetrisch. Dann hieß es: Wie soll der Jurist bei der Bundesanstalt für Finanzdienstleistungen denn Goldman Sachs kontrollieren? Aber genau das war die Aufgabe – und der Öffentlichkeit wurde suggeriert, dass das stattfinde.

Wie kann sichergestellt werden, dass sich das bei KI nicht wiederholt?

Indem wir nicht nur zuschauen, sondern selbst mitmachen. Und sagen: Wir wollen nachvollziehen, wir wollen Aufsicht haben, ein Zertifizierungssystem aufbauen. Aber es gibt einen großen Unterschied zur Bankenkrise: Der Staat ist diesmal nicht nur Aufseher, sondern selbst Nutzer der Technologie.

Derzeit wird die deutsche KI-Aufsichtsbehörde gesucht. Wer soll es werden?

Die Bundesnetzagentur.

Auch in der Ampel setzen sich alte Streitigkeiten fort, Chatkontrolle, Vorratsdatenspeicherung oder Recht auf Verschlüsselung. Letzteres ist ein Vorschlag Ihres Hauses. Hat das eine Chance in dieser Legislaturperiode?

Ja. Eine arbeitsteilige Gesellschaft kann nur mit guter Vertrauenskultur erfolgreich sein. Dazu gehört, dass Kommunikation vertraulich sein kann. Verschlüsselte Kommunikation wird für die gesamte Wirtschaft immer wichtiger. Durch geopolitische Veränderungen gibt es immer mehr Risiken, während zugleich die Abhängigkeit von Daten und digitaler Kommunikation fortschreitet. Es ist aber nicht nur eine wirtschaftliche Frage. Wenn wir unsere private Kommunikation einschränken, verlieren wir, was den größten Wert unserer Gesellschaft ausmacht: die Freiheit.

"Wenn wir unsere private Kommunikation einschränken, verlieren wir, was den größten Wert unserer Gesellschaft ausmacht: die Freiheit."

(Bild: c't/Nadja Wohlleben)

Damit hängt auch die Debatte um chinesische Telekommunikations-Ausrüster zusammen. Wie sehen Sie die aktuell?

Ich habe von Anfang an gesagt: Wenn wir eine solche Frage besprechen, müssen wir Fakten haben. Was konkret sind eigentlich die Sicherheitsrisiken? Ich meine...

Liegen Ihnen denn die Fakten jetzt vor?

Wir haben einen klaren Einblick in das, was im Netz an Technik verbaut ist. Und können einschätzen, ob und in welchem Maße wann Handlungsbedarf besteht. Am Ende ist Politik eine Abwägung: zwischen konkreten Risiken, Risikoszenarien und dem, was an sonstigen Interessen zu berücksichtigen ist. Die Bundesregierung wird weiter beraten und zu einer gemeinsamen Meinung kommen. Das ist aber kein Thema für eine öffentliche Diskussion. Die Abwägung kann aus nationalen Sicherheitsinteressen nicht transparent gemacht werden – das Ergebnis am Ende schon.

Es geht aber nicht nur um 5G-Netze. Komponenten aus Ländern zweifelhafter Verlässlichkeit stecken in vielen Bereichen. Wird das bei allen kritischen Infrastrukturen jetzt jedes Mal diskutiert?

Wir müssen permanent Sicherheitsfragen im Blick haben. Ein 5G-Netz mit Echtzeit-Anwendungen zum Beispiel beim autonomen Fahren hat ganz andere Anforderungen an die Sicherheit als das bisherige Netz.

Deswegen muss man immer in die Zukunft blicken: Sind die heutigen Netze gewappnet für künftige Risiken? Wenn nicht, muss man reagieren und die Dinge anpassen.

Und das gilt von Antennen über die Cloud Services bis…

Aber ja! Unternehmen tun das auch. Wenn Geschäftsmodelle zunehmend datenbasiert sind, bedingt das, sich stärker mit Fragen der Cybersicherheit zu beschäftigen. Kann unser Geschäftsmodell gehackt werden? Was bedeutet Datenabfluss für uns? Welche Auswirkungen hat es, wenn unser System eine Stunde stillsteht? Diesen Fragen stellen sich Unternehmen, schaffen eigene Clouds und eigene Cybersecurity-Systeme. Für uns gilt das Gleiche: Wir müssen uns damit beschäftigen.

Wenn wir das digitale europäische Zugsteuerungssystem ETCS bei der Bahn implementiert haben, sind das ganz andere Sicherheitsanforderungen als heute, wo wir im Grunde genommen noch die Signalsteuerung aus dem letzten Jahrhundert nutzen. Selbstverständlich muss man die Frage stellen: Genügt unser Netz dann? Mit all seinen Komponenten? Da geht es auch um die Supply Chain. Und zwar nicht nur um die Frage: Ist ein Lieferant vertrauenswürdig? Sondern auch darum, ob die Nachlieferung gesichert ist.

Wir haben gesehen, was es heißt, wenn Lieferketten gestört sind. Auch das sind Sicherheitsfragen. Wir können ja nicht sagen: Leider können wir in den nächsten Wochen keine Zugfahrten anbieten, wir bekommen die Ersatzteile nicht. Das darf nicht passieren.

"Ein 5G-Netz mit Echtzeit-Anwendungen zum Beispiel beim autonomen Fahren hat ganz andere Anforderungen an die Sicherheit als das bisherige Netz."

(Bild: c't/Nadja Wohlleben)

Also ist Souveränität die Lösung?

Bei dem, was wir brauchen, etwa Halbleitern, sind wir immer auch auf Souveränität fokussiert und wollen Unabhängigkeit. Aber zur Wahrheit gehört: in einer arbeitsteiligen Welt kann die vollständige Souveränität einer Gesellschaft nicht gewährleistet werden. Weil wir nicht alles, was wir brauchen, selbst herstellen können.

Deswegen müssen wir Risikomanagement betreiben und dürfen uns nicht von Einzelnen abhängig machen. Das ist unsere Aufgabe und die ist groß genug.


URL dieses Artikels:
https://www.heise.de/-9742953

Links in diesem Artikel:
[1] https://www.heise.de/ct/
[2] mailto:dahe@heise.de

Copyright © 2024 Heise Medien

Adblock test (Why?)

✇ Developer-Blog - Der Dotnet-Doktor ff.org

Neu in .NET 8.0 [23]: Verbesserungen für ZipFile zur Arbeit mit Dateiarchiven

Von Dr. Holger Schwichtenberg — 31. Mai 2024 um 11:00

(Bild: rawf8/Shutterstock.com)

Die Klasse ZipFile besitzt nun Methoden, um ein ZIP-Archiv aus einem Dateisystemordner zu erstellen und Dateien in einen Zielordner zu entpacken.

Die Klasse System.IO.Compression.ZipFile, die es seit dem klassischen .NET Framework 4.5 und im modernen .NET seit Version .NET Core 1.0 gibt, erhält zwei neue statische Methoden CreateFromDirectory() und ExtractToDirectory().

Sie ermöglichen es, ein ZIP-Archiv aus einem Dateisystemordner zu erstellen und Dateien in einen Zielordner zu entpacken.

var quelle = @"t:\dev\";
var ziel = @"t:\dev.zip";
var ziel2 = @"t:\dev2";
 
Console.WriteLine("Komprimiere Ordner: " + quelle);
 
var file = new FileInfo(ziel);
if (file.Exists)
{
 Console.WriteLine("Zieldatei existiert schon und wird gelöscht: " + ziel);
 file.Delete();
}
 
System.IO.Compression.ZipFile.CreateFromDirectory(quelle, ziel, 
    System.IO.Compression.CompressionLevel.Optimal, 
    includeBaseDirectory: true, 
    entryNameEncoding: Encoding.UTF8);
Console.WriteLine("Datei erzeugt: " + ziel);

  file = new FileInfo(ziel);
Console.WriteLine(Math.Round((decimal)file.Length / 1024 / 1024, 2)
                  + " MB1");
 
Console.WriteLine("Extrahiere ZIP-Datei " + ziel + " nach " + ziel2);
 
System.IO.Compression.ZipFile.ExtractToDirectory(ziel, ziel2, 
                                                 overwriteFiles: true);
 
Console.WriteLine("Fertig!");


URL dieses Artikels:
https://www.heise.de/-9722920

Links in diesem Artikel:
[1] https://www.heise.de/blog/Neu-in-NET-8-0-1-Start-der-neuen-Blogserie-9574680.html
[2] https://www.heise.de/blog/Neu-in-NET-8-0-2-Neue-Anwendungsarten-9581213.html
[3] https://www.heise.de/blog/Neu-in-NET-8-0-3-Primaerkonstruktoren-in-C-12-0-9581346.html
[4] https://www.heise.de/blog/Neu-in-NET-8-0-4-Collection-Expressions-in-C-12-0-9581392.html
[5] https://www.heise.de/blog/Neu-in-NET-8-0-5-Typaliasse-in-C-12-0-9594693.html
[6] https://www.heise.de/blog/Neu-in-NET-8-0-6-ref-readonly-in-C-12-0-9602188.html
[7] https://www.heise.de/blog/Neu-in-NET-8-0-7-Optionale-Parameter-in-Lambda-Ausdruecken-in-C-12-0-9609780.html
[8] https://www.heise.de/blog/Neu-in-NET-8-0-8-Verbesserungen-fuer-nameof-in-C-12-0-9616685.html
[9] https://www.heise.de/blog/Neu-in-NET-8-0-9-Neue-und-erweiterte-Datenannotationen-9623061.html
[10] https://www.heise.de/blog/Neu-in-NET-8-0-10-Plattformneutrale-Abfrage-der-Privilegien-9630577.html
[11] https://www.heise.de/blog/Neu-in-NET-8-0-11-Neue-Zufallsfunktionen-9637003.html
[12] https://www.heise.de/blog/Neu-in-NET-8-0-12-Eingefrorene-Objektmengen-9643310.html
[13] https://www.heise.de/blog/Neu-in-NET-8-0-12-Leistung-von-FrozenSet-9649523.html
[14] https://www.heise.de/blog/Neu-in-NET-8-0-14-Neue-Waechtermethoden-fuer-Parameter-9656153.html
[15] https://www.heise.de/blog/Neu-in-NET-8-0-15-Geschluesselte-Dienste-bei-der-Dependency-Injection-9662004.html
[16] https://www.heise.de/blog/Neu-in-NET-8-0-16-Neue-Methoden-fuer-IP-Adressen-9670497.html
[17] https://www.heise.de/blog/Neu-in-NET-8-0-17-Zeitabstraktion-fuer-Tests-mit-Zeitangaben-9675891.html
[18] https://www.heise.de/blog/Neu-in-NET-8-0-18-Ein-Zeitraffer-mit-eigenem-FakeTimeProvider-9683197.html
[19] https://www.heise.de/blog/Neu-in-NET-8-0-19-Razor-HTML-Rendering-in-beliebigen-NET-Anwendungen-9691146.html
[20] https://www.heise.de/blog/Neu-in-NET-8-0-20-Neue-Code-Analyzer-fuer-NET-Basisklassen-9706875.html
[21] https://www.heise.de/blog/Neu-in-NET-8-0-20-Neue-Code-Analyzer-fuer-ASP-NET-Core-9710151.html
[22] https://www.heise.de/blog/Neu-in-NET-8-0-22-Neues-Steuerelement-OpenFolderDialog-fuer-WPF-9722901.html
[23] mailto:rme@ix.de

Copyright © 2024 Heise Medien

Adblock test (Why?)

✇ heise Netze

Mysteriös: Malware zerstört Tausende Router pro Stunde

Von Heise — 31. Mai 2024 um 04:30
Von Ketten umschlossener WLAN-Router

Symbolbild, das keines der betroffenen Geräte zeigt.

(Bild: c't)

In nur 72 Stunden ging beim US-Provider Windstream die Hälfte aller Kunden offline. Hunderttausende Router mussten ausgetauscht werden. Der ISP schweigt.​

Ende Oktober sind beim US-Internetserviceprovider Windstream Hunderttausende Router offline gegangen. Binnen dreier Tage verlor etwa die Hälfte der Kunden ihren Internetzugang. Ihre Router waren plötzlich nutzlos und mussten ausgetauscht werden. Zurücksetzungen funktionierten nicht. Der ISP versorgt nicht ganz 1,2 Millionen Haushalte und einige zehntausend Unternehmen in 18 US-Staaten, vorwiegend in ländlichen Regionen. Schuld war laut Sicherheitsforschern Lumens ein schädliches Update der Router-Firmware, eingeschleust mit Malware namens Chalubo.

Merkwürdig an dem alarmierenden Vorfall sind mehrere Dinge: Betroffen waren ausschließlich Router dieses einen ISP, dann aber gleich Modelle zweier verschiedener Hersteller: Actiontec T3200s und Actiontec T3260s sowie Sagemcom-Router, Lumen vermutet das Modell F5380. Ein Scan der Lumen-Sicherheitsforschungsabteilung Black Lotus Labs zeigt für 24. Oktober 875.000 Router Sagemcom, 230.000 von ActionTec und 136.000 anderer Hersteller bei Windstream. Drei Tage später sind alle Actiontec-Geräte offline, und von der Sagemcom-Flotte sind weniger als 90.000 übrig. Dafür ist die Gruppe der Sonstigen um gut 360.000 angewachsen.

Motiv unklar

Black Lotus schätzt die Zahl der betroffenen Windstream-Kunden konservativ auf 600.000, wahrscheinlich waren es aber um eine Million. Hat sich ein (ehemaliger) Mitarbeiter rächen wollen? Haben Verbrecher versucht, Windstream zu erpressen? War es ein Angriff eines anderen Staates auf US-Infrastruktur? War es ein Zusammentreffen zweier zentral ausgespielter, fehlerhafter Updates?

Hat der Angreifer versucht, die Router zu übernehmen, um sie missbrauchen zu können, sie dabei aber irrtümlich ruiniert? Black Lotus berichtet [1], eingehende Befehle für DDoS-Attacken beobachtet zu haben, die von den Geräten aber nicht ausgeführt wurden. Doch warum würde so ein Täter sich auf einen einzelnen ISP konzentrieren und nicht die gleichen Modelle in verschiedenen Netzen angreifen?

Windstream stumm wie ein Fisch

Und wie konnte Windstream in Windeseile 360.000 neue Router anschließen? Das Unternehmen schweigt eisern. Auch gegenüber heise security hieß es lapidar "We don't have a comment." Da die Firma nicht mehr börsennotiert ist, muss sie sich nicht öffentlich erklären. Und weil die Republikanische Partei in ihrem Kampf gegen die Netzneutralität der Telecom-Regulierungsbehörde FCC die Zuständigkeit für ISP-Regulierung entzogen hat, fehlt auch behördliche Aufsicht – obwohl ein Vorfall solchen Ausmaßes die nationale Sicherheit betrifft.

Balkendiagramme

Black Lotus zeigt Statistiken aus Censys-Scans, die die sichtbare Verteilung der Router-Marken bei Windstream Ende Oktober 2023 belegen.

(Bild: Black Lotus Labs by Lumen)

Erst im April hat sich die FCC die Zuständigkeit zurückgeholt [2] und kann jetzt daran gehen, Sicherheitsvorgaben zu machen. Den Anfang sollen Maßnahmen zur Absicherung des Border Gateway Protocol [3] machen, die hier nicht helfen würden.

Wie genau die Täter in die Windstream-Router gekommen sind, konnte Black Lotus nicht eruieren. Die bei der Kommunikation mit Kontrollservern eingesetzten Schlüssel sind bereits seit 2018 bekannt. Die Täter haben sie unverändert weitergenutzt. Schlussendlich sind die Empfehlungen der Forscher allgemeiner Natur: Updates einspielen, Router regelmäßig neu starten, und voreingestellte Passwörter ändern. Administratoren von Routerflotten müssen darauf achten, dass ihre Managementsysteme gut abgesichert und aus dem Internet nicht zugänglich sind.

Ungekanntes Ausmaß

Ein solch massiver, erfolgreicher Angriff auf einen ISP ist bislang nicht überliefert. Vergleichbar ist lediglich die russische Sabotage des Satellitennetzwerks KA-Sat [4] am 24. Februar 2022, eine Stunde vor dem Überfall auf die Ukraine. Davon betroffen waren auch Fernsteuerungen von Windkraftanlagen in anderen europäischen Ländern. Gerechnet nach Zahl der Anschlüsse war dieses Verbrechen aber um ein bis zwei Größenordnungen kleiner als die bei Windstream angerichtete Zerstörung.

Windstream ist 2006 entstanden; damals wurden die Festnetzteile des Netzbetreibers Alltel mit jenen der Valor Communications Group in Windstream zusammengeführt. Im Jahr davor hatte Alltel Western Wireless übernommen [5]. Aus Western Wireless ist 1999 Voicestream Wireless hervorgegangen, heute bekannt als T-Mobile USA [6]. In gewisser Weise sind Windstream und T-Mobile USA also Basen.

In Österreich besaß Western Wireless den Preisbrecher-Mobilfunker tele.ring, der 2006 ebenfalls von T-Mobile übernommen [7] wurde. Windstream wurde 2019 zahlungsunfähig, reduzierte in einem Insolvenzverfahren seinen Schuldenstand um mehrere Milliarden Dollar und ist seit 2020 in privater Hand.


URL dieses Artikels:
https://www.heise.de/-9742582

Links in diesem Artikel:
[1] https://blog.lumen.com/the-pumpkin-eclipse/
[2] https://www.heise.de/news/Sommer-besiegelt-VoiceStream-uebernahme-38032.html
[3] https://www.heise.de/news/FCC-Chefin-will-das-Border-Gateway-Protocol-absichern-9721893.html
[4] https://www.heise.de/news/EU-und-USA-Russland-fuer-Ausfall-des-Satellitennetzwerks-KA-Sat-verantwortlich-7080650.html
[5] https://www.heise.de/news/Alltel-uebernimmt-Western-Wireless-fuer-sechs-Milliarden-Dollar-126010.html
[6] https://www.heise.de/news/Sommer-besiegelt-VoiceStream-uebernahme-38032.html
[7] https://www.heise.de/news/EU-Kommission-genehmigt-uebernahme-von-tele-ring-durch-T-Mobile-Austria-119879.html
[8] mailto:ds@heise.de

Copyright © 2024 Heise Medien

Adblock test (Why?)

✇ heise Netze

Alle gegen Nvidia: Offener Standard "UALink" vernetzt KI-Cluster

Von Heise — 30. Mai 2024 um 20:33

Nvidia dominiert bei KI-Beschleunigern und koppelt sie per NVLink. Dagegen setzen AMD, Intel, Broadcom, Cisco und die Hyperscaler nun UALink und Ultra Ethernet.

Das explosive Marktwachstum bei den KI-Servern krempelt die Technik um. Nvidia dominiert nicht nur den Markt für KI-Rechenbeschleuniger, sondern dadurch mit dem proprietären NVLink wiederum die dafür nötige, superschnelle Vernetzungstechnik.

Deshalb kooperieren nun die Firmen AMD, Broadcom, Cisco, Google, HPE, Intel, Meta und Microsoft beim offenen Interconnect Ultra Accelerator Link (UALink). Dabei spielen auch Ultra Ethernet sowie der Compute Express Link (CXL) auf Basis von PCIe 5.0 eine Rolle.

Interconnect hängt an Rechenbeschleunigern

Cluster aus aktuellen KI-Hochleistungsrechenbeschleunigern sind anders miteinander vernetzt als etwa ältere Supercomputer. Der Interconnect ist in den einzelnen Rechenknoten nicht mehr an den Hauptprozessoren (CPUs) angebunden, sondern direkt an den KI-Beschleunigern (GPUs). Diese sind einerseits innerhalb des Knotens extrem schnell miteinander gekoppelt, um auch KI-Modelle schnell verarbeiten zu können, die nicht in den lokalen Speicher eines einzelnen Rechenbeschleunigers passen. Andererseits haben mehrere der KI-Beschleuniger auch externe Anschlüsse, um weitere Knoten über einen Switch mit hoher Bandbreite und niedriger Latenz zu erreichen.

Dabei setzt Nvidia seit einigen Jahren auf NVLink. [1] Vor vier Jahren hat das Unternehmen für sieben Milliarden US-Dollar den Netzwerk-Experten Mellanox zugekauft.

Blockschaltbild KI-Server mit AMD Instinct MI

Die 200G-Ethernet-Adapter zur Vernetzung mehrerer Server mit KI-Rechenbeschleunigern von AMD hängen an letzteren, nicht an der CPU.

(Bild: AMD)

Konkurrenz abgehängt

Innerhalb der einzelnen Knoten nutzen die jeweiligen Hersteller von KI-Beschleunigern proprietäre Verfahren wie AMD Infinity Fabric [2] oder den offenen Standard Compute Express Link (CXL) [3]. Der Ultra Accelerator Link soll künftig die externe Brücke zwischen maximal 1024 Knoten eines KI-Clusters bilden.

Mit Infiniband steht zwar seit Jahren ein schneller Interconnect für Cluster bereit. Anscheinend schreitet die Entwicklung dort aber nicht rasch genug voran, und es gibt nur (noch) wenige Firmen, die Infiniband-Hardware fertigen.

Bei Ethernet gibt es mehr Konkurrenz, und die Infrastruktur aus Kabeln und Switches ist flexibler nutzbar. Unter anderem Intel arbeitet bereits an 800G-Ethernet-Adaptern [4], Broadcom an Switch-Chips [5]. An der Spezifikation für 1,6-TBit-Ethernet wird bereits gewerkelt (IEEE P802.3dj draft [6]). Verfahren wie Remote DMA over Converged Ethernet (RoCE) [7] stehen zur Hochleistungsvernetzung von Clustern als Alternative zu Infiniband bereit.

Unter dem Dach der Linux Foundation arbeitet seit Ende 2023 das Ultra Ethernet Consortium (UEC) [8]. Es will Datentransfers auf allen Ebenen beschleunigen und optimieren: Physical Layer, Link Layer, Transport Layer und Software Layer.

Innerhalb der kommenden vier Monate will das Ultra Accelerator Link Consortium eine erste Version der Spezifikation veröffentlichen, sich formal gründen, und dann sicherlich eine Website einrichten. Bisher gibt es nur eine Pressemeldung [9], die wenige Tage vor der Computex 2024 herausgegeben wurde.


URL dieses Artikels:
https://www.heise.de/-9742371

Links in diesem Artikel:
[1] https://www.nvidia.com/de-de/data-center/nvlink/
[2] https://www.heise.de/news/Supercomputer-El-Capitan-Mehr-als-2-Exaflops-mit-AMD-Zen-4-und-Radeon-Instinct-4676080.html
[3] https://www.heise.de/news/PCI-Express-6-0-und-CXL-2-0-sollen-Server-umkrempeln-6324090.html
[4] https://www.heise.de/news/Intel-SmartNIC-Netzwerkadapter-mit-800-Gbit-s-fuer-Cloud-Rechenzentren-7084171.html
[5] https://www.heise.de/news/Broadcom-Tomahawk-5-Netzwerk-Chip-mit-ueber-51-2-TBit-s-7223216.html
[6] https://www.keysight.com/de/de/about/newsroom/news-releases/2024/0319-pr24-051-keysight-demonstrates-first-full-line-rate-1-6-ter.html
[7] https://www.heise.de/news/ARM-Serverprozessor-mit-Ethernet-RDMA-2177226.html
[8] https://ultraethernet.org/
[9] https://www.businesswire.com/news/home/20240530653602/en/
[10] https://www.heise.de/ct/
[11] mailto:ciw@ct.de

Copyright © 2024 Heise Medien

Adblock test (Why?)

✇ heise Netze

Recht auf schnelles Internet: Erster Provider zur Mindestversorgung verpflichtet

Von Heise — 30. Mai 2024 um 18:48
Eine große Kabeltrommel mit orangefarbenem Kabel steht auf einer günen Wiese

Idylle ohne Internet.

(Bild: ThomBal/Shutterstock.com)

Nach langer Verzögerung hat die Bundesnetzagentur erstmals einen Internetanbieter verpflichtet, einen Haushalt mit Mindestbandbreite zu versorgen – ohne Kabel.

Eigentlich hätte die Bundesnetzagentur schon spätestens Anfang März 2023 erste Provider dazu verdonnern müssen [1], nicht ans Internet angeschlossenen Haushalten hierzulande eine Mindestversorgung auf Basis des seit Anfang Juni 2022 bestehenden Rechts auf "schnelles" Internet [2] anzubieten. Denn damals stand bereits fest, dass zumindest in einem Dutzend Fälle kein Telekommunikationsunternehmen einen angemessenen Internetanschluss zur Verfügung stellen konnte. Mit einem Jahr Verspätung war es inzwischen soweit: Im März 2024 verpflichtete die Regulierungsanbieter erstmals einen Internetanbieter, einen Haushalt in Niedersachsen mit Internet- und Telefondiensten zu versorgen.

Dies hat die Bundesregierung in einer jetzt veröffentlichten Antwort [3] auf eine Anfrage der CDU/CSU-Bundestagsfraktion erklärt. Die Abgeordneten warfen der Regierung darin vor, das Recht auf schnelles Internet nicht umzusetzen. Dem widerspricht das Bundesministerium für Digitales und Verkehr (BMDV), ohne Details zu nennen.

Laut einem Bericht [4] von Netzpolitik geht es um ein Grundstück im niedersächsischen Mittelstenahe bei Cuxhaven. Es sei keiner der in der Region ausbauenden Provider – Telekom und EWE – zur Mindestversorgung angewiesen worden, sondern der Satellitenanbieter Starlink.

Tausende Haushalte fühlen sich unterversorgt

Zwischen Juni 2022 und Februar 2024 erreichten die Bundesnetzagentur der Regierung zufolge insgesamt 5581 Eingaben über eine mögliche Unterversorgung. Die meisten Beschwerden kamen demnach von Bürgern sowie juristischen Personen aus Niedersachsen und Bayern. Seit 2021 seien 6451 Vorgänge ohne Verfahren eingestellt worden.

In 29 Fällen habe der Regulierer seit Juni 2022 eine Unterversorgung festgestellt, die etwa 46 Standorte in Niedersachsen, Nordrhein-Westfalen (NRW), Hamburg und Bayern betreffen, schreibt das BMDV. Der Löwenanteil entfalle mit 16 Entscheidungen auf Bayern, wo Altbauten betroffen seien. Elf Feststellungen betrafen laut der Antwort Niedersachsen, jeweils eine Nordrhein-Westfalen und Hamburg. Dabei handele es sich mit einer Ausnahme um Neubauten.

13 Unterversorgungserklärungen seien zwischenzeitlich aufgehoben worden, da die Grundlage für eine formale Verpflichtungsentscheidung entfallen war. In allen diesen Fällen seien "kurzzeitig realisierte Versorgungsmöglichkeiten" über Mobilfunk oder Festnetz geschaffen worden oder würden in absehbarer Zeit sichergestellt.

Höhere Mindestbandbreiten lassen auf sich warten

Die Netzagentur brachte anfangs eine Größe von bis zu 330.000 potenziell von einer Unterversorgung betroffener Haushalte ins Spiel. Das BMDV geht nun davon aus, dass diese Zahl "aufgrund von Verbesserungen am Festnetz gesunken ist". Zu beachten sei zudem, dass Versorgungsmöglichkeiten über Satelliten- und Mobilfunk nicht mit in die erste Sondierung eingeflossen seien.

Gegenüber dem Bundesrat sagte die Bundesregierung Mitte 2022 zu [5], sie werde Mitte 2023 die mit dem Rechtsanspruch verknüpfte Mindestbandbreite im Download von derzeit 10 MBit/s auf mindestens 15 MBit/s sowie auch die Mindestbandbreite im Upload anheben. Letztere beträgt derzeit 1,7 MBit/s. Das Versprechen hat die Regierung noch immer nicht eingelöst [6].

Das BMDV beharrt darauf, dass eine Novelle der Verordnung über die Mindestanforderungen für das Recht auf Versorgung mit Telekommunikationsdiensten [7] (TKMV) erst auf Grundlage einer Evaluation eingeleitet werden könne. Letztere sei nun nach dem Einholen mehrerer Gutachten "weit vorangeschritten".


URL dieses Artikels:
https://www.heise.de/-9742415

Links in diesem Artikel:
[1] https://www.heise.de/news/Unterversorgung-Regulierer-hat-noch-keinen-Provider-zum-Anschluss-verpflichtet-8989241.html
[2] https://www.heise.de/news/TKG-Novelle-Bundestag-beschliesst-schnelles-Internet-fuer-alle-6024446.html
[3] https://dserver.bundestag.de/btd/20/114/2011415.pdf
[4] https://netzpolitik.org/2024/mindestversorgung-mit-internet-starlink-soll-angeblich-deutsche-breitbandluecken-schliessen
[5] https://www.heise.de/news/Bundesrat-sattelt-beim-fuer-Recht-auf-schnelles-Internet-nicht-drauf-7137031.html
[6] https://www.heise.de/news/Bundesregierung-haelt-Zusage-fuer-Recht-auf-schnelleres-Internet-nicht-9288816.html
[7] https://www.heise.de/news/TKG-Novelle-Bundestag-beschliesst-schnelles-Internet-fuer-alle-6024446.html
[8] mailto:vbr@heise.de

Copyright © 2024 Heise Medien

Adblock test (Why?)

✇ Developer-Blog - the next big thing

Business? Nein, danke!

Von Golo Roden — 29. Mai 2024 um 08:17

(Bild: Andrii Yalanskyi/Shutterstock.com)

Software zu entwickeln bedeutet, Code zu schreiben. Um die Business-Aspekte sollen sich andere kümmern. Ist die Welt für Entwickler wirklich so einfach?

Viele Menschen fürchten sich davor, Fehler zu machen. Ich persönlich sehe das ein wenig anders: Ich finde es per se nicht schlimm, wenn etwas misslingt. Natürlich freue ich mich über einen Erfolg mehr als über einen Misserfolg, aber man kann aus Fehlern eine ganze Menge lernen, und das wiederum ist unglaublich viel wert. Einen Fehler, den ich selbst vor langer, langer Zeit gemacht habe, beobachte ich immer wieder bei zahlreichen Entwicklerinnen und Entwicklern – und so "schön" Fehler in gerade eben genanntem Sinne sind: Denselben Fehler immer und immer wieder zu machen, ist letztlich ineffizient, auch wenn es jeweils unterschiedliche Personen betrifft.

Ein Entwicklertraum?

Worum geht es? Vor rund 15 Jahren, irgendwann zwischen 2009 und 2011, arbeiteten ein befreundeter Entwickler und ich in unserer Freizeit, also abends und am Wochenende, an einem gemeinsamen Projekt, das wir uns überlegt hatten. Technisch gesehen zielte unser Vorhaben darauf ab, den Zugang zu Downloads zu beschränken, oder besser gesagt: Zu kontrollieren. Wir wollten beispielsweise Downloads nur für eine begrenzte Zeit verfügbar machen, oder sie nur im Tausch gegen einen Zugangscode ermöglichen, oder ausschließlich für bestimmte Nutzerinnen und Nutzer freischalten. Wir hatten uns damals überlegt, dass das ein unglaublich praktischer und durchaus wertvoller Service werden könnte, etwa für E-Books, digitale Musik oder Video-Streaming.

Die Idee war, dass wir die Software bereitstellen würden, die legitime Zugriffe auf digitale Inhalte ermöglichen und gleichzeitig die Rechte der Urheber schützen würde. Wir stellten uns vor, dass das ein riesiger Markt sein müsste. Und wir hatten alles, was das Entwicklerherz begehrt: Unsere Codebase war extrem gut strukturiert, der Code war sauber und aufgeräumt, wir hatten für praktisch alles Unit- und Integrationstests und so weiter. Und natürlich hatten wir auch einen bedeutsamen Namen und, ganz wichtig, ein schickes Logo. Das Einzige, was uns fehlte, waren Kunden. Und noch viel schlimmer: Wir hatten absolut keine Idee, wie wir potenzielle Kunden hätten identifizieren oder gar ansprechen sollen.

Technik, aber kein Business

Und genau das ist der typische Fehler, den viel zu viele Entwicklerinnen und Entwickler machen: Zu glauben, man bräuchte nur ein technisch herausragendes Produkt, und der Rest würde dann von alleine passieren. Die Realität ist aber: Wenn man ein technisch herausragendes Produkt hat, dann hat man genau das – ein technisch herausragendes Produkt. Aber außer einem selbst weiß niemand davon, und deshalb kauft es auch niemand. Wenn man nicht weiß, wie man ein Produkt vermarktet und wie man ein Business rund um ein Produkt aufbaut, dann kann man es sich eigentlich schon fast sparen, überhaupt mit der Entwicklung anzufangen.

Und dabei hatten wir bis zu diesem Punkt sogar eine ganze Menge richtig gemacht: Wir hatten uns gut organisiert, wir haben die Arbeit sinnvoll auf uns beide verteilt, wir waren uns einig über Aspekte wie Qualität, Zeit und Kosten, wir hatten einen guten Draht zueinander und damit auch eine gute Kommunikation, und so weiter. Und all diese Dinge, die man üblicherweise wahrscheinlich unter Schlagwörtern wie "Projektmanagement" und auch "Teambuilding" zusammenfassen würde, selbst diese sind ja schon nicht selbstverständlich!

Denn wie viele Teams gibt es, die bereits daran scheitern? Die keinen guten Entwicklungsprozess haben? Wo ständig umgeplant wird, weil es (wenn man mal ehrlich wäre) gar keinen wirklichen Plan gibt? Wo das Verhältnis zwischen Entwicklung und Management von gegenseitigem Misstrauen und Missgunst geprägt ist? Und so weiter?

Noch mehr Probleme

Doch selbst wenn wir das mit der Vermarktung und der Kundenansprache hinbekommen hätten, wären wir rasch an einem ganz anderen Punkt gescheitert, über den wir vorher ebenfalls nicht nachgedacht hatten: Wir hatten uns nämlich keinerlei Gedanken gemacht, wie wir ein Unternehmen um das Ganze herum aufbauen könnten. Zu jenem Zeitpunkt waren wir beide sehr unerfahren, was das Thema "Gründen" angeht. Wir hatten keinerlei Ahnung von den rechtlichen Aspekten, von Rechtsformen, Verträgen, Buchhaltung, Steuern und all den Themen, die dazu gehören.

Und deshalb, so hart das auch ist, muss ich mir rückblickend eingestehen: Das, was wir damals gemacht haben, war kein "Start-up", auch wenn wir damals beide der Illusion nachhingen, dass es sich so anfühlen würde. Es war de facto noch nicht einmal eine Geschäftsidee. Tatsächlich waren wir, ganz realistisch betrachtet, einfach nur zwei Jungs, die ihren Spaß daran hatten, gemeinsam ein bisschen auf der grünen Wiese zu programmieren. Und wenn das das Ziel ist, dann ist ein solches Vorgehen auch völlig in Ordnung. Aber für das, womit die meisten von uns Geld verdienen, dafür genügt das allein nicht. Dafür braucht es mehr.

Raus aus der technischen Komfortzone

Und ich weiß, das ist etwas, das viele Entwicklerinnen und Entwickler nicht gerne hören, weil sie es sich in ihrer technischen Komfortzone bequem gemacht haben, aber: Wenn man Software entwickelt, um damit Geld zu verdienen – völlig unabhängig davon, ob man nun selbstständig ist, ein eigenes Unternehmen hat oder in einem Unternehmen angestellt ist – dann ist es fahrlässig, sich auf die Position zurückzuziehen, man sei lediglich für den Code zuständig.

Denn, und das ist entscheidend: Software wird nicht deshalb entwickelt, weil es so faszinierend ist, Software zu entwickeln. Sondern Software wird entwickelt, weil es da draußen (hoffentlich) jemanden gibt, dessen fachliche Probleme man damit löst. Um das aber zielgerichtet und effizient machen zu können, muss man nicht nur über das notwendige Domänenwissen verfügen, sondern es ist auch enorm hilfreich, wenn man versteht, wie das Ganze drumherum funktioniert: Wie Projektplanung funktioniert, wie man Zeit und Ressourcen plant, wie man Aufwände schätzt, wie man mit Risiken umgeht, wie man ein Team aufbaut, wie man wertschätzend kommuniziert, wie man eine Marke aufbaut, wie man verkauft, wie man Werbung macht, wie man über das, was man macht, berichtet – sei es in Blogs, in Artikeln, auf Meetups, auf Konferenzen oder sonst wo – und wie das Business hinter all dem funktioniert.

"Aber das betrifft mich doch gar nicht!"

Nun werden viele Entwicklerinnen und Entwickler sicherlich nicht mit all diesen Punkten aktiv in Berührung kommen, und gerade wenn man in einem größeren Unternehmen arbeitet, dann werden dort für die meisten Aspekte, die ich gerade genannt habe, eigene Teams vorhanden sein, wie zum Beispiel ein Marketing- oder ein Sales-Team. Aber auch mit diesen Teams gibt es am Ende des Tages Berührungs- und Anknüpfungspunkte.

Denn – und ich weiß, dass die Realität oft leider ganz anders aussieht – auch ein Marketing-Team kann nur das bewerben, was in der Entwicklung vorhanden ist, und vor allem auch nur das, was es von dem Vorhandenen wirklich verstanden hat. Deshalb ist es hilfreich, wenn Entwicklerinnen oder Entwickler wissen, wie Marketing funktioniert, damit sie besser mitreden und proaktiv Vorschläge machen können. Und das gilt natürlich nicht nur für das Marketing: Das gilt gleichermaßen für Sales, für Legal, für HR, und so weiter. Und natürlich muss man nicht alles aus diesen Bereichen wissen, aber es hilft, eine grobe Vorstellung zu haben und die grundlegenden Konzepte zu kennen.

"Business ist langweilig …"

Und ich kann aus eigener Erfahrung sagen: Wenn mich jemand vor 15 Jahren nach diesen Themen gefragt hätte, hätte ich geantwortet, dass ich das weder als meine Aufgabe ansehen würde (denn ich habe mich als reinen Entwickler verstanden), noch dass ich Zeit oder gar Lust gehabt hätte, mich mit diesen Themen zu befassen (denn ich habe mich, wie gesagt, als reinen Entwickler verstanden). Ich hätte überhaupt nicht gewusst, warum ich mich mit diesen Themen beschäftigen sollte, und ich konnte mir auch nicht vorstellen, dass das auch nur ansatzweise Spaß machen könnte. Und heute?

Ich bin so froh, dass ich das heute anders sehe. Und das beginnt schon auf unserem YouTube-Kanal [2]: Jedes Video, das wir veröffentlichen, muss zeit- und ressourcentechnisch eingeplant werden. Es gilt, diverse rechtliche Aspekte zu beachten. Es gibt auch steuerliche Aspekte zu berücksichtigen. Einen guten Titel zu finden, einen passenden Beschreibungstext zu verfassen, das ist Marketing. Jedes Mal, wenn ich sage: "Und falls Du das noch nicht gemacht hast, dann abonniere jetzt unseren Kanal", dann ist das ein Pitch, mit dem ich versuche, jemanden als dauerhafte Zuschauerin oder als dauerhaften Zuschauer zu gewinnen.

Daher: Falls Sie das noch nicht gemacht haben, dann ist jetzt der richtige Zeitpunkt, unseren Kanal zu abonnieren [3]! Und wenn Sie das machen, dann denken Sie daran, auch die Glocke zu aktivieren, damit Sie von YouTube über neue Videos von uns benachrichtigt werden.

Marketing in der Praxis

Wer diesen Blogpost im Anschluss gleich noch einmal liest, wird feststellen, dass ich nicht einfach nur sage, dass Entwicklerinnen und Entwickler meiner Meinung nach dies und jenes tun sollten, aus diesen und jenen Gründen, sondern ich habe das Ganze mit einer persönlichen Geschichte verknüpft. Auf diesem Weg hebe ich das Thema nämlich auf eine emotionale Ebene und mache es lebendiger und greifbarer.

Das nennt man übrigens Storytelling, und auch das ist ein Begriff aus dem Marketing. Das heißt, dass vieles von dem, was ich in diesem Blogpost angesprochen habe, durchaus praktisch sein kann, aber dass einem im Alltag oft gar nicht direkt bewusst ist, wo das alles drinsteckt. Deshalb kann ich nur noch einmal sagen: Ich wünschte, ich hätte vieles über all diese Themen deutlich früher gewusst. Und ich kann jeder und jedem nur nahelegen, sich damit zu beschäftigen. Wie es in dem Film "Matrix" so schön heißt: "Ich kann Dir nur die Tür zeigen. Durchgehen musst Du selbst."

PS: Für alle, die zu diesem Thema mehr erfahren wollen, veranstaltet die the native web GmbH ab dem 8. Juli 2024 eine Webinarreihe: "Business-Grundlagen für Entwickler" [4].


URL dieses Artikels:
https://www.heise.de/-9733902

Links in diesem Artikel:
[1] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[2] https://www.youtube.com/@thenativeweb
[3] https://www.youtube.com/@thenativeweb
[4] https://www.thenativeweb.io/techlounge/masterclass
[5] mailto:map@ix.de

Copyright © 2024 Heise Medien

Adblock test (Why?)

✇ heise Netze

Vor 50 Jahren: Das Netz der Netze wird der Fachwelt vorgestellt

Von Heise — 25. Mai 2024 um 08:45

Im Mai 1974 schlug die erste Definition des Transmission Control Protocol wie eine Bombe ein. Das feierte das IEEE kürzlich als erste Keimzelle des Internets.

Das Internet hat bekanntlich viele Geburtstage. Am 19. Mai war so einer, jedenfalls für das Institute of Electrical and Electronics Engineers (IEEE). Im Mai 1974 erschien nämlich in der Verbandszeitschrift "IEEE Transactions on Communication" der Aufsatz "A Protocol For Packet Network Intercommunication" von Vinton Cerf und Robert Kahn. Der Fachwelt wurde erstmals die Idee eines Transmission Control Protocol (TCP) vorgestellt, das sich eignet, um aus mehreren paketvermittelnden Netzen ein Netzwerk der Netzwerke aufzubauen. Es sollte das Network Core Protocol des Arpanet ablösen.

Zum 50. Geburtstag gibt es gleich mehrere Veranstaltungen, denn neben dem speziellen IEEE-Geburtstag würdigte das IEEE auch den Xerox Alto Computer, das Ethernet und den Laserdrucker. Den Abschluss bildete eine Veranstaltung im Computer History Museum. Zum Auftakt wurden drei IEEE-Milestone-Plaketten am PARC-Forum des Stanford Research Institute [1] angebracht. Sie sollen an die herausragenden Erfindungen erinnern, die am damals von Xerox unterhaltenen Palo Alto Research Center (PARC) [2] gemacht wurden.

Eine Plakette erinnert an den Xerox Alto als Urvater der Personal Computer [3], mit dem der Mythos vom großen Benutzeroberflächenraub [4] verbunden ist. Eine weitere Plakette feiert den ebenfalls an PARC entwickelten Laserdrucker mit dem nerdigen Namen EARS (Ethernet-Alto Research Character Generator Scanning Laser Output Terminal) und eine dritte Plakette das am PARC entwickelte Ethernet beziehungsweise den IEEE-Standard 802.3. Ethernet-Erfinder Bob Metcalfe [5] erhielt im Jahre 2023 den Turing Award und war bei dieser im Stream abrufbaren Hybrid-Veranstaltung zusammen mit Vint Cerf vor Ort.

Arpanet, ALOHAnet und TCP

Der extrem rührige und gut vernetzte Metcalfe war auch derjenige, der nach den Erinnerungen von Vint Cerf Ende 1973 nach einer Computerkonferenz im britischen Brighton Cerf den Herausgebern der IEEE vorstellte. Metcalfe zeigte den Teilnehmenden, wie das Arpanet funktioniert und erklärte sein Ethernet mitsamt den Wurzeln im ALOHAnet [6], das Norman Abramson entwickelt hatte. Cerf gab einen ersten Einblick in die Überlegungen von Robert Kahn und ihm. Diese sollten schließlich zu TCP führen und an den Erläuterungen Cerfs ist auch gut zu erkennen, wie und warum das veraltete NCP-Protokoll des Arpanets abgelöst wurde.

Nach der Konferenz arbeitete er zusammen mit seinem Partner Robert Kahn [7] fieberhaft an dem für die IEEE vorgesehenen Artikel (PDF) [8], der in der Fachwelt wie eine Bombe einschlug. Aus diesem Grund feierte das IEE zusammen mit Cerf und Kahn am vergangenen Wochenende die Veröffentlichung des Artikels [9].

Zum Zeitpunkt der Veröffentlichung war TCP weit davon entfernt, ein fertig definiertes Protokoll zu sein. Der an der Unversität von Kalifornien lehrende Informatiker Cerf [10] überließ es seinen Studenten, die Details des Protokolls auszuarbeiten. "Ich musste für zwei Wochen weg und beauftragte nach der groben Skizze Yogen Dalal [11] und Carl Sunshine [12], die Details zu beschreiben", erzählte Cerf die Entstehung im Buch "Soul of the Internet". Dementsprechend finden sich auch die Namen der beiden Promovierenden im RFC-Dokument 675 [13], mit dem TCP im Dezember 1974 im Arpanet angekündigt wurde.

Doch aus heutiger Sicht muss die Liste um Gérard Le Lann und Hubert Zimmermann erweitert werden. Die beiden Franzosen waren 1974 Sommergäste an der Universität von Kalifornien. Daheim arbeiteten sie am Projekt Cyclades, das ihr Professor Louis Pouzin [14] ins Leben gerufen hatte. Die Spuren dieser Zusammenarbeit finden sich in den Fußnoten zu RFC 675. Pouzin war zuvor Teilnehmer einer französischen Delegation gewesen, der das Arpanet vorgestellt wurde und entwickelte mit Cyclades und den Cigales genannten "Datagrams" die französische Variante eines paketvermittelnden Datennetzes. Im April 1974 besuchten Vint Cerf und Bob Kahn das Institut von Pouzin in Frankreich. Zurück in Kalifornien begann die detaillierte Arbeit an TCP.

Das aller-allererste Internet-Datenpaket schickte ein zur mobilen Sendestation umgerüsteter Lieferwagen (Brotlaster) 1977 auf eine Rundreise über mehrere Länder und Kontinente, Satellitenstrecken eingeschlossen.

(Bild: Stanford Research Institute)

"Ich habe eine sehr lebendige Erinnerung daran, wie Bob Metcalfe, Le Lann und ich auf dem Boden meines Hauses in Palo Alto riesige Diagramme malten, wie das System arbeiten sollte." Sie finden sich als ASCII-Kunstwerk im erwähnten RFC 675, dem ersten Dokument, in dem von einem Internet die Rede ist.

Transmission Control Protocol/Internet Protocol

Dieses Request-Dokument war erst der Anfang der technischen Entwicklung des Internet Transmission Control Protocol. "Im Frühjahr 1976 begannen wir, das Protokoll in zwei Hälften aufzuteilen. Ich wechselte von der Universität zu ARPA und arbeitete dort unter der Leitung von Bob Kahn," erinnerte sich Cerf später an die Entstehung von TCP/IP, die mit ihren vielen "Requests for Comment" im RFC 9293 dokumentiert ist [15]. Zu diesem Teil der weitschweifigen Internetgeschichte gehörten auch Tests, wie jener des "Brotlasters", der 1976 das erste TCP-Paket auf eine transkontinentale Internetrundreise [16] schickte. Die große Umstellung erfolgte nach vielen Testläufen erst im Januar 1983 [17].

Vint Cerf und Bob Kahn waren auch bei der Online-Gedenkfeier zum 50. Jahrestag des IEEE-Artikels über TCP [18] dabei. Mit von der Partie war auch die Informatikerin Judy Estrin, die TCP als Doktorandin unter Cerf auf Herz und Nieren getestet hat. Ihr Vater Jerry Estrin war der Professor, der Vint Cerf als Assistent an die Universität von Kalifornien holte und seine Dissertation betreute. Jerry Estrins Ehefrau, die Informatikerin Thelma Estrin [19] war die erste Vizepräsidentin der IEEE.

Die Feier ging am Montag mit einem Stream aus dem Computer History Museum [20] weiter, allerdings unter etwas anderen Vorzeichen. Es wurde diskutiert, wie nach dem TCP-Vorschlag von Cerf und Kahn das IEEE 802-Standardisierungs-Komitee (PDF) [21] entstand und was es mit den Plaketten für den Xerox Alto, das Ethernet und den Laserdrucker auf sich hat.

Außerdem wurde eine weitere Milestone-Plakette vergeben. Sie ging an Googles Page Rank [22], den Algorithmus, der zur Gründung von Google in den Jahren 1996 bis 1998 führte. Entsprechend der nichtstofflichen Natur des Algorithmus gibt es nur eine virtuelle Gedenk-Plakette. Sie könnte der 80-jährige Vint Cerf annehmen, der nunmehr als "Chief Internet Evangelist" seit 2001 bei Google angestellt ist [23]. Dort arbeitet er an dem interplanetarischen Internet als nächster Entwicklungsstufe von TCP [24].


URL dieses Artikels:
https://www.heise.de/-9725646

Links in diesem Artikel:
[1] https://www.sri.com/press/story/sri-to-be-presented-with-three-ieee-milestones-for-innovations-that-have-transformed-our-lives/
[2] https://www.heise.de/news/Vor-50-Jahren-Xerox-eroeffnet-das-Forschungszentrum-PARC-4800890.html
[3] https://www.heise.de/news/Desktop-Pionier-Einblick-in-den-Source-Code-des-Xerox-Alto-2429865.html
[4] https://www.heise.de/blog/Der-grosse-Benutzeroberflaechenraub-3911701.html
[5] https://www.heise.de/news/Turing-Award-fuer-Ethernet-Erfinder-Bob-Metcalfe-8116158.html
[6] https://www.heise.de/news/Surfin-in-the-USA-zum-Tode-des-Informatikers-Norman-Abramson-4988176.html
[7] https://www.heise.de/news/TCP-IP-Entwickler-erhalten-den-Turing-Award-2004-135628.html
[8] https://www.cs.rice.edu/~eugeneng/teaching/f07/comp529/papers/ck74.pdf
[9] https://ieee-region6.org/2024/ieee-triple-milestone-event-50th-anniversary-internet-tcp-ip/#i50
[10] https://optimism.ucla.edu/profiles/cerf/
[11] https://ethernethistory.typepad.com/about.html
[12] https://ieeexplore.ieee.org/author/38275605600
[13] https://datatracker.ietf.org/doc/html/rfc675
[14] https://www.internethalloffame.org/inductee/louis-pouzin/
[15] https://datatracker.ietf.org/doc/html/rfc9293
[16] https://www.heise.de/select/ct/2021/27/2120416053681489063
[17] https://www.heise.de/news/Vor-30-Jahren-Arpanet-stellte-auf-TCP-IP-um-1775269.html
[18] https://ieee-region6.org/2024/ieee-triple-milestone-event-50th-anniversary-internet-tcp-ip/#i50
[19] https://ethw.org/Thelma_Estrin
[20] https://computerhistory.org/
[21] https://grouper.ieee.org/groups/802/802%20overview.pdf
[22] https://www.heise.de/hintergrund/Das-steckt-hinter-dem-Google-Algorithmus-4691138.html
[23] https://spectrum.ieee.org/vint-cerf
[24] https://www.heise.de/meinung/Einfach-neue-Software-hochladen-275768.html
[25] https://www.heise.de/ct/
[26] mailto:dz@ct.de

Copyright © 2024 Heise Medien

Adblock test (Why?)

✇ Developer-Blog - Der Dotnet-Doktor ff.org

Entwickler-Infotag online am 11. Juni 2024 zu .NET 9.0, C# 13.0 und KI

Von Dr. Holger Schwichtenberg — 24. Mai 2024 um 14:00

(Bild: Pincasso/Shutterstock.com)

Der eintägige Online-Infotag widmet sich diversen Themen rund um die kommenden Versionen von C# und .NET sowie KI-unterstützte Softwareentwicklung.

Im zwölften Jahr in Folge organisiere ich auch 2024 wieder einen Infotag für Softwarearchitektinnen und -architekten sowie Entwicklerinnen und Entwickler im Umfeld von .NET, der auch dieses Jahr wieder als eintägiges Online-Event stattfinden wird. Wie immer bei den Infotagen von www.IT-Visions.de erhalten die Teilnehmenden von den prominenten Sprechern eine geballte Informationsladung und eine unabhängige Meinung ohne Sponsoreneinfluss. Beim letzten Infotag im Mai 2023 hatten wir 361 zufriedene Teilnehmende. Neben allen Themen rund um .NET 9.0 bieten wir dieses Jahr als besonderes Highlight einen Vortrag zur KI-unterstützten Softwareentwicklung.

Vorträge beim Softwareentwickler-Update 2024

  1. Neuerungen in .NET 9.0: SDK, Runtime, Basisklassen
  2. Aktuelle Updates für Visual Studio 2022
  3. Neuerungen in C# 13.0
  4. Neuerungen in .NET Multi-Platform App UI (MAUI) 9.0
  5. Neuerungen für Windows-Desktop-Entwickler (Windows Forms 9.0, WPF 9.0, WinUI3 1.x)
  6. Neuerungen für Webentwickler in ASP.NET Core 9.0 und Blazor 9.0
  7. Neuerungen beim Datenbankzugriff mit Entity Framework Core 9.0
  8. KI-unterstützte Softwareentwicklung mit OpenAI, Azure OpenAI und Copilot
  9. Frage- und Antwort-Runde mit allen Vortragenden

Sprecher

An diesem Infotag werden neben meiner Person [1] drei weitere bekannte .NET-Experten und Microsoft Most Valuable Professionals (MVPs) vortragen: André Krämer [2], Thomas Claudius Huber [3] und Rainer Stropek [4]. Sie stehen den Teilnehmenden im Rahmen der Veranstaltung wie immer auch für alle individuellen Fragen gerne zur Verfügung.

Kurze Fakten

Dienstag, 11.06.2024
von 9.00 bis ca. 18.00 Uhr
Online-Live-Event via Zoom inkl. Aufzeichnung

15 Prozent Rabatt mit diesem Gutscheincode für Blogleserinnen und -leser:
IT24-HD-15-A

Preis mit Gutscheincode: 169 Euro statt 199 Euro, bei Gruppenanmeldungen (ab drei Personen): 139 Euro

Weitere Informationen und das Anmeldungsformular sind unter it-visions.de [5] verfügbar.


URL dieses Artikels:
https://www.heise.de/-9731228

Links in diesem Artikel:
[1] http://www.it-visions.de/about/experte.aspx/Hschwichtenberg
[2] http://www.it-visions.de/about/experte.aspx/Akraemer
[3] http://www.it-visions.de/about/experte.aspx/Thuber
[4] http://www.it-visions.de/about/experte.aspx/Rstropek
[5] https://it-visions.de/[QBLOG]/infotag
[6] mailto:mai@heise.de

Copyright © 2024 Heise Medien

Adblock test (Why?)

✇ heise Netze

Anklage und mögliche Millionenstrafen wegen Robocalls mit Deepfake-Biden

Von Heise — 23. Mai 2024 um 21:31
Jo Biden lächelnd vor zwei Mikrofonen

Der echte Biden (Bild) war not amused (nicht im Bild).

(Bild: Weißes Haus)

Automatisierte Anrufe mit KI-generierter Biden-Stimme sollten Wähler in die Irre führen. Sie könnten den Auftraggeber ins Gefängnis führen.​

New Hampshire erhebt vier Anklagen gegen Steve Kramer, der Anfang des Jahres Bürger mit automatisierten Anrufen (Robocalls) belästigt und dabei eine Deepfake-Stimme US-Präsident Joe Bidens eingesetzt hat. Zusätzlich drohen Millionenstrafen der Telecom-Regulierungsbehörde FCC. Kramer ist zum grundsätzlichen Sachverhalt geständig und behauptet, mit den Anrufen auf die Gefahren von Deepfakes [1] aufmerksam machen zu wollen. Er ließ den KI-generierten Biden sagen, dass die Wähler nicht zur Vorwahl gehen sollen.

Bei der Vorwahl entscheiden wahlberechtigte Einwohner New Hampshires, wer die Kandidaten der Parteien der Demokraten sowie der Republikaner sind, die bei der Wahl im November auf dem Stimmzettel stehen werden. Der Vorwahl in New Hampshire kommt stets besondere Aufmerksamkeit zugute, weil es die erste im Reigen der US-Vorwahlen ist.

Wählerunterdrückung

Kramer engagierte sich in der Kampagne eines Demokraten-Politikers, der Präsidentschaftskandidat seiner Partei werden wollte – ein Wunsch mit geringen Erfolgsaussichten, möchte doch der amtierende US-Präsident Joe Biden wieder antreten. Die KI-generierte Biden-Stimme empfahl den Angerufenen, nicht zu wählen, um sich ihre Stimme für die Präsidentenwahl im November "aufzuheben". Tatsächlich dürfen Wahlberechtigte sowohl bei der Vorwahl als auch bei der eigentlichen Wahl im November jeweils eine Stimme abgeben. Außerdem soll sich Kramer bei den Anrufen fälschlich als Kandidat ausgegeben haben.

Der Rat, sich die Stimme "aufzuheben", ist irreführend; wer darauf hereinfällt, verliert seinen Einfluss bei der Vorwahl, ohne bei der eigentlichen Wahl einen Vorteil zu haben. Hätte Kramer die richtigen Leute hereingelegt, hätte das die Chancen "seines" Kandidaten verbessert. Dieser gibt an, von Kramers Machenschaften nichts gewusst zu haben, und distanziert sich ausdrücklich davon. Der Auftragnehmer, der die falsche Biden-Stimme generiert hat, gibt das ebenfalls zu, will aber nichts vom geplanten Einsatzzweck gewusst haben. Er ist nicht angeklagt. Biden gewann die Vorwahl haushoch.

Nun erhebt New Hampshire Anklage gegen Kramer: 13 Mal wegen des Verbrechens der Wählerunterdrückung, worauf jeweils 3,5 bis 7 Jahre Haft stehen, und 13 Mal wegen des Vergehens, sich fälschlich als Kandidat auszugeben, wofür Geldstrafen drohen. Jeweils 13, weil Kramer für den Prozess 13 Anrufe nachgewiesen werden sollen. Diese gingen an Anschlüsse in vier verschiedenen Countys, weshalb sich Kramer gleich vier parallelen Strafprozessen stellen muss. Das hat Justizminister John Formella, ein Republikaner, am Donnerstag bekanntgegeben [2].

FCC-Verfahren auch gegen Netzbetreiber

Die FCC (Federal Communications Commission) hat ebenfalls ein Verfahren gegen Kramer eröffnet (Az. FCC 24-59). Sie möchte ihm eine Geldstrafe von Höhe von sechs Millionen US-Dollar aufbrummen. Einerseits ist es in den USA illegal, Anrufe zu Mobiltelefonen sowie Festnetzanschlüssen in Privatwohnungen "mit künstlicher oder voraufgezeichneter Stimme" [3] durchzuführen, sofern der Angerufene nicht vorab zugestimmt hat. Andererseits soll Kramer auch gegen das Verbot gefälschter Rufnummern (Caller-ID) verstoßen haben.

Laut Medienberichten ließ er es so aussehen, als kämen die Anrufe vom Anschluss einer ehemaligen Parteivorsitzenden der Demokraten in New Hampshire. Die Dame kam unschuldig zum Handkuss.

Zwei Millionen Dollar Strafe möchte die FCC über den Netzbetreiber Lingo Telecom verhängen (Az. FCC 24-60). Dieser soll die Anrufe in Kramers Auftrag vermittelt und dabei mit digitalen Signaturen nach STIR/SHAKEN signalisiert haben, dass die angezeigte Caller-ID korrekt sei. STIR/SHAKEN ist gerade ein Mittel im Kampf gegen Telefon-Spam [5]. Der Netzbetreiber wäre verpflichtet gewesen, die Identität des Auftraggebers zu prüfen (Know Your Customer, KYC), soll diese Pflicht aber nicht erfüllt haben.

Die Strafverfahren heißen alle State of New Hampshire v. Steven Kramer und tragen folgende Aktenzeichen: 211-2024-CR-00211 (Belknap County Superior Court), 215-2024-CR-00203, 215-2024-CR-00204, 215-2024-CR-00205 (Grafton County Superior Court), 217-2024-CR-00443, 217-2024-CR-00444 (Merrimack County Superior Court) sowie 218-2024-CR-00480 (Rockingham County Superior Court).


URL dieses Artikels:
https://www.heise.de/-9730391

Links in diesem Artikel:
[1] https://www.heise.de/news/EU-Studie-Forscher-sehen-durch-Deepfakes-die-Demokratie-gefaehrdet-6224455.html
[2] https://www.doj.nh.gov/news/2024/20240523-kramer-voter-suppression.html
[3] https://www.heise.de/news/Auch-Telefon-Spam-mit-KI-Stimme-ist-Spam-9623364.html
[4] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[5] https://www.heise.de/news/STIR-SHAKEN-Nordamerika-signiert-Rufnummern-im-Kampf-gegen-Spam-6127147.html
[6] mailto:ds@heise.de

Copyright © 2024 Heise Medien

Adblock test (Why?)

✇ FreshRSS.org

FreshRSS 1.24.0

Von Alkarex — 23. Mai 2024 um 11:54

A few highlights ✨:

  • New shareable user query mechanism to share lists of articles by HTML, RSS, OPML
    • Deprecates RSS sharing with master token
  • New CLI for database backup & restore
  • New JSON scraping mode to consume JSON data and JSON Feeds
  • New support for HTTP POST
  • New option to automatically add labels to incoming articles
  • New button to download a feed configuration as OPML
  • Many bug fixes

This release has been made by several contributors: @aledeg, @Alkarex, @andris155, @CilgaIscan, @cn-tools, @den13501, @eta-orionis, @Frenzie, @FromTheMoon85, @gmgall, @hkcomori, @jakopo87, @laxmanpradhan, @loviuz, @math-GH, @MayMeow, @OctopusET, @PedroPMS, @roughnecks, @soniyaprasad77, @th0mcat, @thomasrenes, @tiborepcek, @wolfpld, @yzqzss, @zukizukizuki
and several newcomers @eta-orionis, @gmgall, @hkcomori, @jakopo87, @jgtorcal, @krm-shrftdnv, @laxmanpradhan, @loviuz, @PedroPMS, @roughnecks, @soniyaprasad77, @th0mcat, @zukizukizuki

Full changelog:

  • Features
    • New shareable user query mechanism to share list of articles by HTML, RSS, OPML #6052
      • Deprecates RSS sharing with master token
    • New JSON scraping mode to consume JSON data #5662, #6317,
      #6369, #6476
    • New support for JSON Feeds #5662
    • New support for HTTP POST #5662
    • New options to automatically add labels to incoming articles #5954
    • New button to download a feed configuration as OPML #6312
    • Web scraping support more encodings such as EUC-JP #6112
    • Web scraping support password-protected queries (refactor some cURL options and use CURLOPT_USERPWD) #6177
    • Web scraping HTTP GET allow UTF-8 even when charset is far from top #6271
    • Allow manual refresh of disabled feeds #6408
    • Allow multiple authors on enclosures #6272
    • New system option in data/config.php for number of feeds to refresh in parallel from UI #6124
  • CLI
  • API
    • New compatible app Read You #4633, #6050
    • Reduce API memory consumption #6137
    • Allow negative feed IDs for future special cases #6010
    • Only return OK for requests without query parameters #6238
  • Bug fixing
    • Better account for some edge cases for cron and automatic labels during feed refresh #6117
    • Better support for thumbnails in RSS feeds #5972
    • Auto-update PostgreSQL or MariaDB / MySQL databases for column details changes since FreshRSS 1.21.0 #6279
      • For SQLite, DB update require running ./cli/db-backup.php ; ./cli/db-restore.php --force-overwrite
    • Fix SQLite import of exports produced before FreshRSS 1.20.0 #6450
    • Fix SQLite release handle to fix deleting users on Microsoft Windows #6285
    • Fix to allow admins to create user even when there are Terms Of Service #6269
    • Fix updating the uncategorized category deletes the title #6073
    • Fix disable master authentication token #6185
    • Fix CSS selector preview #6423
    • Fix CSS selector encoding #6426
    • Fix export of CSS selector in OPML of individual feeds #6435
    • Fix OPML import of CURLOPT_PROXYTYPE #6439
    • Fix favicon with protocol-relative URLs have duplicate slashes #6068
    • Fix feed TTL+muted logic #6115
    • Fix apply mark as read to updated articles too #6334
    • Fix ZIP export on systems with custom temp folder #6392
    • Fix number of posts per page during paging #6268
    • Fix clipboard sharing UI #6301
    • Fix shortcut for clipboard sharing #6277
    • Fix user-query filter display #6421
  • SimplePie
  • Security
    • Replace iframe allow attribute #6274
  • Deployment
    • Disable unused PHP modules in our Debian-based Docker image #5994
  • UI
  • i18n
  • Extensions
    • Sanitize parsing list of extensions names and version number #6016,
      #6155, Extensions#214, #6186
    • Apply filter actions such as mark as read after the entry_before_insert hook for extensions #6091
    • New developer command to test all third-party extensions Extensions#228, #6273
      • composer run-script phpstan-third-party
    • New function Minz_Extension::amendCsp() for extensions to modify HTTP headers for Content Security Policy #6246
    • New property FreshRSS_Entry::isUpdated() for extensions to know whether an entry is new or updated #6334
  • Compatibility
    • Fix PHP 7.4 compatibility for automated tests #6038, #6039
    • Fix PHP 8.2+ compatibility for e-mails #6130
    • Use PHP 8.3+ #[\Override] #6273
  • Misc.
✇ heise Netze

IoT: So wollen Forscher das Internet der Dinge per Satellit ausweiten​

Von Heise — 22. Mai 2024 um 21:49
Eine runde Dishy-Antenne für Starlink steht in einer Wiese

Ein Klassiker: Die runde "Dishy"-Antenne für Starlink

(Bild: Daniel AJ Sokolov)

Um mehr Geräte ans Internet anzuschließen, gelten Starlink & Co als Mittel der Wahl. Doch oft bleiben nur kurze Zeitfenster für Datenaustausch.​

Ein neues Modell zur effektiveren Anbindung von Geräten ans Internet haben katalanische Wissenschaftler entwickelt. Sie wollen das Internet of Things (IoT) durch bessere Synchronisierung der Verbindungszeiten mit Satelliten unterstützen, konkret mit erdnahen Konstellationen wie Starlink, OneWeb und das geplante Kuiper [1]. Aktuell sind geschätzt 15 Milliarden Objekte wie Autos, Bewässerungssensoren, Wetterstationen und autonome Drohnen Teil des Internets der Dinge. Bis 2030 soll sich diese Zahl verdoppeln. Eines der Haupthindernisse auf dem Weg dorthin: Viele der Geräte stehen an entlegenen Orten ohne Mobilfunk.

Als beste Lösung gelten dann Satellitennetzwerke. Doch oft bleiben aufgrund Besonderheiten auf beiden Seiten nur kurze Zeitfenster für den Datenaustausch, sodass ausgefeilte Abstimmung nötig ist. Guillem Boquet und Borja Martínez von der Wireless-Networks-Gruppe des interdisziplinären Instituts der Universitat Oberta de Catalunya (UOC) in Barcelona zeigen in einer jetzt veröffentlichten Studie [2] Möglichkeiten zu verbesserter Koordination zwischen Objekten auf der Erde und erdnahen Satelliten [3] (LEO für Low Earth Orbit).

Für die Nutzung dieser Trabanten spricht Boquet zufolge viel: "Sie benötigen weniger Sendeleistung, um eine zuverlässige Kommunikation zu erreichen." Das spart Energie, verlängert die Batterielebensdauer und reduziert damit Wartungskosten. Außerdem sind die Satellitenverbindungen günstiger als andere Anbindungen und bieten bessere Abdeckung.

IoT-Geräte sind in der Regel batteriebetrieben und verfügen über regelmäßige Schlaf- und Aktivitätsintervalle, um Energie zu sparen. Für diese Arbeitszyklen sind sogar eigene Standards etabliert. Da LEO-Satelliten aber nicht unbedingt ununterbrochene Abdeckung bieten, kommt es den Forschern zufolge zu kleinen, unregelmäßigen Kommunikationsfenstern. Entscheidend seien daher "fortschrittlichere Synchronisierungsstrategien", um passgenauen und zuverlässigen Zugriff sicherzustellen.

Erfolgreicher Test mit dem Mini-Satelliten Enxanet

Um die Ansprüche beider Seiten unter einen Hut zu bringen, ist eine Vorhersage der Verbindungsfenster erforderlich. Die Wissenschaftler haben ein Modell entwickelt, das Satellitenumlaufbahnen ausgehend von einem bekannten Ausgangspunkt berechnet. Dieser Ansatz hat aber seinen Preis: Die Berechnung braucht Energie, ebenso die Aktualisierung der Daten, falls die tatsächlichen Gegebenheiten abweichen. Ein erster Test der Lösung in einer realen Kommunikationssituation mit dem Nanosatelliten Enxaneta der katalanischen Regierung [4] ist vielversprechend verlaufen: Die Satellitenzugriffsrate habe sich um bis zu 99 Prozent verbessert, was eine langfristige Netzwerkverbindung gewährleiste, berichten die Forscher. Gleichzeitig sei der Energieverbrauch minimiert worden.

Als Nächstes möchte das Team die Kosten-Nutzen-Analyse der Implementierung des Modells unter Berücksichtigung verschiedener Anwendungen, Dienstnetzwerke, Arten von Satellitenkonstellationen, IoT-Geräten und Kommunikationsverfahren eruieren, dann energiesparende Modi vorschlagen und umsetzen. Mittelfristig soll sich die Lösung automatisch den Kommunikationsbedürfnissen und den sich ändernden Bedingungen nicht-terrestrischer Netzwerke anpassen.


URL dieses Artikels:
https://www.heise.de/-9728917

Links in diesem Artikel:
[1] https://www.heise.de/news/Amazon-bringt-erste-Prototypen-seines-Satelliteninternets-in-den-Orbit-9325384.html
[2] https://ieeexplore.ieee.org/document/10190364
[3] https://www.heise.de/thema/Satellit
[4] https://www.fullsdenginyeria.cat/lenxaneta-senlaira-amb-exit
[5] mailto:ds@heise.de

Copyright © 2024 Heise Medien

Adblock test (Why?)

✇ Developer-Blog - the next big thing

Softwareentwicklung trifft Business: Ankündigung der tech:lounge Masterclass

Von Golo Roden — 21. Mai 2024 um 10:31
Distance,Education,Online,Learning,Concept.,Robot,Teacher,,Abstract,Classroom,Interior

(Bild: Besjunior/Shutterstock.com)

Die the native web GmbH veranstaltet ab dem 1. Juli 2024 insgesamt zwölf Webinare zu den Themen KI, Business-Grundlagen, Accessibility und DSGVO.

Im Sommer veranstaltet die the native web GmbH insgesamt zwölf Webinare aus den Themenbereichen Künstliche Intelligenz, Business-Grundlagen, Accessibility und DSGVO.

Die Webinare finden ab dem 1. Juli jeweils montags, mittwochs und freitags von 9:00 Uhr bis 12:30 Uhr statt und vermitteln die aktuellen Themen der zeitgemäßen Softwareentwicklung auf anschauliche und verständliche Art in Theorie und Praxis. Die Themenauswahl umfasst sowohl grundlegende als auch fortgeschrittene Themen.

KI-gestützte Softwareentwicklung (Details anzeigen [1])

  • 01.07. – OpenAI, Prompts & Co. in der Praxis
  • 03.07. – GitHub Copilot effizient nutzen
  • 05.07. – KI rechtssicher lokal ausführen

Business-Grundlagen für Entwickler (Details anzeigen [2])

  • 08.07. – Projektmanagement für Entwickler
  • 10.07. – Marketing, Copy-Writing & Co.
  • 12.07. – Von der Gründung bis zur Rechnung

Accessibility rechtssicher umsetzen (Details anzeigen [3])

  • 19.08. – Einführung in moderne Accessibility
  • 21.08. – Zeitgemäße Techniken und Werkzeuge
  • 23.08. – Strategien für gelungene Accessibility

Die DSGVO in der Praxis (Details anzeigen [4])

  • 26.08. – Praktische Einführung in die DSGVO
  • 28.08. – Die DSGVO rechtskonform umsetzen
  • 30.08. – Weiterführende Themen und Compliance

Die Webinare werden als Livestream durchgeführt, sodass man einfach und bequem teilnehmen kann – ganz gleich, ob von zu Hause oder aus dem Büro. Für Fragen steht ein Chat zur Verfügung.

Der Preis beträgt 179 Euro pro Webinar. Wer drei Webinare aus einem Themenbereich als Paket bucht, erhält mehr 25 % Rabatt gegenüber der Einzelbuchung, der Preis beträgt dann 399 Euro. Darüber hinaus gelten noch einmal günstigere Konditionen für Teams. Alle Preise verstehen sich jeweils zuzüglich 19 % Umsatzsteuer.

Im Preis enthalten ist neben der Teilnahme am Livestream auch der Zugriff auf die Aufzeichnung des Webinars und die Codebeispiele.

Alle weitergehenden Informationen und eine Buchungsmöglichkeit finden sich auf der Webseite der tech:lounge Masterclass [5].


URL dieses Artikels:
https://www.heise.de/-9715006

Links in diesem Artikel:
[1] https://www.thenativeweb.io/techlounge/ai-aided-software-development
[2] https://www.thenativeweb.io/techlounge/business-essentials-for-developers
[3] https://www.thenativeweb.io/techlounge/implementing-accessibility
[4] https://www.thenativeweb.io/techlounge/gdpr-in-practice
[5] https://www.thenativeweb.io/techlounge/masterclass
[6] mailto:map@ix.de

Copyright © 2024 Heise Medien

Adblock test (Why?)

❌