(Bild: iX)
Im Oktober startet in Hamburg die S2N, die heise-Konferenz zu Storage, Server, Network. Jetzt ist das Programm online. Frühbucher können kräftig sparen.
Am 9. Oktober beginnt in Hamburg die S2N, die zweitägige heise-Konferenz zu Storage, Server, Network. Jetzt steht das Vortragsprogramm [1]. Für begrenzte Zeit gibt es noch Tickets mit einem sehr attraktiven Frühbucherrabatt: Für Very Early Birds kostet das Ticket bis zum 3. Juni nur 399 Euro, statt 499 zum regulären Preis.
Die S2N [2] gibt Administratoren und IT-Leitern Gelegenheit, sich intensiv mit modernen Speicherlösungen, Netzwerkarchitektur und -management, Trends und Praxiserfahrungen von Kollegen auseinanderzusetzen. Die Konferenz führt die Speicherkonferenz storage2day mit neuem Namen, breiterem Themenkonzept und noch einmal erweitertem Vortragsprogramm fort. In Hamburg finden jetzt vier Tracks parallel statt.
In den Vorträgen geht es um die aktuellen Herausforderungen, denen sich RZ-Profis heute entgegensehen: Der Umstieg auf Open-Source-Virtualisierung von Servern und Storage, etwa mit Proxmox, Ceph und OpenStack ist genauso ein Thema wie das praktische Umsetzen moderner Netzwerk-Konzepte wie EVPN Fabric oder die Herausforderungen, die Machine Learning an die Infrastruktur im Rechenzentrum stellt. Hier können Administratoren vor allem von den Erfahrungen im High Performance Computing profitieren, denn der KI-Boom lässt Enterprise-IT und HPC zusammenrücken. Daneben kommen auch die Security-Themen nicht zu kurz, etwa der Schutz vor Ransomware, die Wiederherstellung nach einem Totalausfall oder das Absichern des Active Directory mit Tiering-Konzepten.
Veranstalter der S2N sind iX, das Magazin für professionelle IT, und der dpunkt.verlag. Wer über den Verlauf der Konferenz informiert werden möchte, kann sich auf der Konferenz-Website für den Newsletter [3] eintragen.
URL dieses Artikels:
https://www.heise.de/-9724533
Links in diesem Artikel:
[1] https://s2n.heise.de/programm.php
[2] https://s2n.heise.de/
[3] https://s2n-heise.de/
[4] https://s2n-heise.de/index.php
[5] https://s2n-heise.de/location.php
[6] https://s2n-heise.de/programm.php
[7] https://www.heise.de/ix/
[8] mailto:ulw@ix.de
Copyright © 2024 Heise Medien
(Bild: Telefónica Deutschland)
Telefónica Deutschland can draw on a digital twin of its own mobile network for network planning and fault management.
Telefónica Deutschland has created a "digital twin" of its mobile network that shows the current state of the network and can help analyze problems. The tool resembles an interactive map of the network and was developed internally, the company announced on Tuesday.
The digital twin shows the status of the network's 28,000 antenna sites, routers and other hardware as well as over 50,000 fiber optic or radio relay links in real time. With the help of the software, Telefónica's network technicians can see in detail how the individual components are working and how the network is utilized.
"The digital network twin provides us with comprehensive real-time information and routes - like a map app for the network," explains CTO Mallik Rao. "We work ten times faster with the self-developed application than with previous tools. We can optimize our network in a more targeted manner, better identify performance restrictions and identify alternative transport routes more quickly."
Telefónica Deutschland also wants to be able to react more quickly to disruptions with the tool. The digital twin can be used to simulate failure scenarios and various solutions - for example, which routes are suitable for bypassing failed hardware and how they cope with additional load. In an emergency, the digital twin then suggests sensible alternative routes.
The company also hopes to gain insights into how to cope with the growing volume of data on the network. According to the company, mobile data usage in O2's network is increasing "exponentially". In 2023, the network will have processed 4.8 billion gigabytes of mobile data.
A digital twin is the digital representation of a physical object or process. This digital image makes it possible to carry out simulations and analyses without affecting the real object. A digital twin can be built for machines, real estate or immaterial processes or even entire cities [1]. It combines all information and functions.
URL dieses Artikels:
https://www.heise.de/-9724574
Links in diesem Artikel:
[1] https://www.heise.de/hintergrund/Digitaler-Zwilling-Entwicklung-vom-3-D-Stadtmodell-zur-Metaverse-City-7459718.html?from-en=1
[2] mailto:vbr@heise.de
Copyright © 2024 Heise Medien
(Bild: Telefónica Deutschland)
Für Netzplanung und Störungsmanagement kann Telefónica Deutschland auf einen digitalen Zwilling des eigenen Mobilfunknetzes zurückgreifen.
Telefónica Deutschland hat einen "digitalen Zwilling" seines Mobilfunknetzes geschaffen, der den aktuellen Zustand des Netzes abbildet und bei der Analyse von Problemen helfen kann. Das Tool gleicht einer interaktiven Karte des Netzes und wurde intern entwickelt, teilte das Unternehmen am Dienstag mit.
Der digitale Zwilling bildet den Status der 28.000 Antennenstandorte, Router und andere Hardware sowie über 50.000 Glasfaser- oder Richtfunkstrecken des Netzes in Echtzeit ab. Mithilfe der Software können Netztechniker von Telefónica detailliert nachvollziehen, wie die einzelnen Komponenten funktionieren und wie das Netz ausgelastet ist.
"Der digitale Netz-Zwilling versorgt uns mit umfassenden Echtzeitinformationen und Routen – wie eine Karten-App fürs Netz", erklärt CTO Mallik Rao. "Mit der selbstentwickelten Applikation arbeiten wir zehnmal schneller als mit bisherigen Tools. Wir können unser Netz zielgerichteter optimieren, Performanceeinschränkungen besser erkennen und alternative Transportrouten schneller identifizieren."
Telefónica Deutschland will mit dem Tool auch schneller auf Störungen reagieren können. Anhand des digitalen Zwillings lassen sich Ausfallszenarien und verschiedene Lösungsansätze simulieren – etwa welche Routen sich eignen, um ausgefallene Hardware zu umgehen, und wie die mit zusätzlicher Last klarkommen. Im Ernstfall schlägt der digitale Zwilling dann sinnvolle Alternativrouten vor.
Auch im Hinblick auf die Bewältigung der wachsenden Datenmengen im Netz verspricht sich das Unternehmen Erkenntnisse. Die mobile Datennutzung im Netz von O2 [1] steigt laut Unternehmensangaben "exponentiell an". Im Jahr 2023 habe das Netz 4,8 Milliarden Gigabyte an mobilen Daten verarbeitet.
Ein digitaler Zwilling ist die digitale Repräsentation eines physischen Objekts oder Prozesses. Dieses digitale Abbild ermöglicht es, Simulationen und Analysen durchzuführen, ohne das reale Objekt zu beeinträchtigen. Ein digitaler Zwilling kann für Maschinen, Immobilien oder immaterielle Prozesse oder auch ganze Städte [2] gebaut werden. Er fasst sämtliche Informationen und Funktionen zusammen.
URL dieses Artikels:
https://www.heise.de/-9724470
Links in diesem Artikel:
[1] https://www.heise.de/thema/O2
[2] https://www.heise.de/hintergrund/Digitaler-Zwilling-Entwicklung-vom-3-D-Stadtmodell-zur-Metaverse-City-7459718.html
[3] mailto:vbr@heise.de
Copyright © 2024 Heise Medien
(Bild: Maximumm/Shutterstock.com)
The Internet has been susceptible to data routing errors. RPKI would remedy this, but ISPs are not obliged to do so. The head of the FCC wants to change that.
The routing tables of the Internet (Border Gateway Protocol, BGP) are susceptible to manipulation. Through "BGP hijacking", data traffic is maliciously rerouted, foisted or brought to a standstill. In addition, incorrect entries are made by mistake, resulting in disruptions. The Chairman of the US regulatory authority FCC, Jessica Rosenworcel, now wants to oblige US broadband providers to at least take precautions against erroneous incorrect routes.
Resource Public Key Infrastructure (RPKI) is used for this purpose. Only once RPKI has been rolled out can the next security measure, BGPsec, which offers better protection against deliberate BGP hijacking, take effect. Rosenworcel wants to convince her four colleagues at the FCC that the agency should require US broadband providers to secure their data routes with RPKI.
The nine largest ISPs in the country will also have to submit reports: A secret report outlining their plans to implement RPKI, as well as quarterly public progress reports that should also show whether the implementation plan is reasonable. Rosenworcel cites [1] unspecified security warnings from US intelligence agencies, as well as the results of an FCC investigation from 2022 and a Border Gateway Protocol Security Workshop from last summer.
The problem of unsecured data routes has been known for a long time. Even when BGP was introduced in 1989, experts pointed out that traffic on the internet could easily be redirected so that attackers could see, change or simply make the data traffic disappear. Little happened for a long time. About 20 years ago, cryptographic protection of the routing system was finally designed using RPKI and BGPsec. However, implementation has been slow, even though state attackers, particularly from Russia, have repeatedly attacked the Internet infrastructure.
However, it is easy to explain why the FCC is only now taking action: shortly before the end of Donald Trump's term of office as US President, the FCC withdrew its responsibility for internet regulation. In this way, the Republican majority in the FCC at the time managed to abolish net neutrality. And after Democrat Joe Biden took office, Republicans in the US Parliament prevented the appointment of a Democratic FC Commissioner for a long time.
It was only a few weeks ago that the FCC was able to regain responsibility for regulating internet service providers and reintroduce net neutrality [2]. This will take effect at the end of June. Accordingly, it now makes sense to tackle further aspects of internet regulation.
The BG protocol (RFC 1105) specifies the exchange of information between routers, because of which they can identify the best route for the data packets transmitted between their networks – the Autonomous Systems (AS) –. The border routers record the best paths in routing tables. The Border Gateway Protocol suffers from the fact that it originates from a time when people still trusted each other in the network. Anyone can declare any route they want, there are no automatic controls.
In so-called prefix hijacking, an attacker passes off the prefixes of his victims as his own. For example, the attacking network can announce more specific addresses from the victim's network or claim to offer a shortcut to certain IP address blocks. Routers without RPKI simply have to believe this.
With RPKI (RFC 6840 plus over 40 other RFCs [3]), Route Origin Authorizations (ROA ) can be used to determine which IP prefixes an autonomous system is responsible for. If it suddenly announces other IP prefixes, this triggers an alarm. This is primarily intended to prevent the frequently occurring errors when announcing routes. Perhaps the best-known example of this is the redirection of YouTube traffic to Pakistan Telecom.
Theoretically, there has also been a weapon against deliberate BGP hijacking since 2017: BGPsec (RFC 8204) [4]. It secures the routing information on its way through the network. Instead of simply checking the authenticity of the origin of a route announcement, the aim is to ensure that no manipulation occurs along the path. However, it would only help if, firstly, RPKI was rolled out and, secondly, all network operators switched to BGPsec at the same time so that unsigned information could be ignored. Such a changeover is not in sight, because this would require the replacement of many routers and the network operators would have considerable additional work to manage all the BGPsec keys required for each routing hop.
In addition, BGPsec requires that the issuers of the cryptographic certificates are trusted. However, if these bodies are under state control, there may not be much to be gained. This is because most manipulations are the result of perpetrators from corrupt countries or even state actors pursuing their own interests. They could also issue certificates that give their attacks the appearance of legitimacy.
URL dieses Artikels:
https://www.heise.de/-9721902
Links in diesem Artikel:
[1] https://docs.fcc.gov/public/attachments/DOC-402579A1.pdf
[2] https://www.heise.de/news/USA-Die-Netzneutralitaet-ist-wieder-da-9698966.html?from-en=1
[3] https://blog.apnic.net/2021/03/15/which-rpki-related-rfcs-should-you-read/
[4] https://datatracker.ietf.org/doc/html/rfc8205
[5] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[6] mailto:ds@heise.de
Copyright © 2024 Heise Medien
(Bild: charnsitr/Shutterstock.com)
Microsoft liefert in .NET 8.0 nach vielen Jahren erstmals wieder ein neues Steuerelement für die Windows Presentation Foundation.
Viele Jahre lang gab es keine neuen Steuerelemente für die Windows Presentation Foundation (WPF). In .NET 8.0 liefert Microsoft nun einen neuen Dialog (Klasse Microsoft.Win32.OpenFolderDialog) für das Auswählen von Ordnern im Dateisystem (siehe Listing).
Es öffnet sich der Standarddialog des Windows-Betriebssystems. Realisiert wurde die Klasse Microsoft.Win32.OpenFolderDialog aber nicht von Microsoft selbst, sondern dem Community-Mitglied Jan Kučera [1].
OpenFolderDialog openFolderDialog = new OpenFolderDialog()
{
Title = "Select folder to open ...",
InitialDirectory =
Environment.GetFolderPath(Environment.SpecialFolder.ProgramFiles),
};
string folderName = "";
if (openFolderDialog.ShowDialog() == true)
{
folderName = openFolderDialog.FolderName;
}
(Bild: Screentshot (Holger Schwichtenberg))
URL dieses Artikels:
https://www.heise.de/-9722901
Links in diesem Artikel:
[1] https://github.com/miloush
[2] https://www.heise.de/blog/Neu-in-NET-8-0-1-Start-der-neuen-Blogserie-9574680.html
[3] https://www.heise.de/blog/Neu-in-NET-8-0-2-Neue-Anwendungsarten-9581213.html
[4] https://www.heise.de/blog/Neu-in-NET-8-0-3-Primaerkonstruktoren-in-C-12-0-9581346.html
[5] https://www.heise.de/blog/Neu-in-NET-8-0-4-Collection-Expressions-in-C-12-0-9581392.html
[6] https://www.heise.de/blog/Neu-in-NET-8-0-5-Typaliasse-in-C-12-0-9594693.html
[7] https://www.heise.de/blog/Neu-in-NET-8-0-6-ref-readonly-in-C-12-0-9602188.html
[8] https://www.heise.de/blog/Neu-in-NET-8-0-7-Optionale-Parameter-in-Lambda-Ausdruecken-in-C-12-0-9609780.html
[9] https://www.heise.de/blog/Neu-in-NET-8-0-8-Verbesserungen-fuer-nameof-in-C-12-0-9616685.html
[10] https://www.heise.de/blog/Neu-in-NET-8-0-9-Neue-und-erweiterte-Datenannotationen-9623061.html
[11] https://www.heise.de/blog/Neu-in-NET-8-0-10-Plattformneutrale-Abfrage-der-Privilegien-9630577.html
[12] https://www.heise.de/blog/Neu-in-NET-8-0-11-Neue-Zufallsfunktionen-9637003.html
[13] https://www.heise.de/blog/Neu-in-NET-8-0-12-Eingefrorene-Objektmengen-9643310.html
[14] https://www.heise.de/blog/Neu-in-NET-8-0-12-Leistung-von-FrozenSet-9649523.html
[15] https://www.heise.de/blog/Neu-in-NET-8-0-14-Neue-Waechtermethoden-fuer-Parameter-9656153.html
[16] https://www.heise.de/blog/Neu-in-NET-8-0-15-Geschluesselte-Dienste-bei-der-Dependency-Injection-9662004.html
[17] https://www.heise.de/blog/Neu-in-NET-8-0-16-Neue-Methoden-fuer-IP-Adressen-9670497.html
[18] https://www.heise.de/blog/Neu-in-NET-8-0-17-Zeitabstraktion-fuer-Tests-mit-Zeitangaben-9675891.html
[19] https://www.heise.de/blog/Neu-in-NET-8-0-18-Ein-Zeitraffer-mit-eigenem-FakeTimeProvider-9683197.html
[20] https://www.heise.de/blog/Neu-in-NET-8-0-19-Razor-HTML-Rendering-in-beliebigen-NET-Anwendungen-9691146.html
[21] https://www.heise.de/blog/Neu-in-NET-8-0-20-Neue-Code-Analyzer-fuer-NET-Basisklassen-9706875.html
[22] https://www.heise.de/blog/Neu-in-NET-8-0-20-Neue-Code-Analyzer-fuer-ASP-NET-Core-9710151.html
[23] https://www.heise.de/blog/Neu-in-NET-8-0-22-Neues-Steuerelement-OpenFolderDialog-fuer-WPF-9722901.html
[24] mailto:rme@ix.de
Copyright © 2024 Heise Medien
(Bild: Maximumm/Shutterstock.com)
Das Internet ist seit jeher anfällig für Fehler beim Datenrouting. RPKI würde abhelfen, ISPs sind dazu aber nicht verpflichtet. Die FCC-Chefin will das ändern.
Die Routingtabellen des Internet (Border Gateway Protocol, BGP) sind anfällig für Manipulation. Durch "BGP-Hijacking" wird Datenverkehr böswillig umgeleitet, untergeschoben oder zum Erliegen gebracht. Hinzu kommen irrtümlich falsche Einträge, die Störungen nach sich ziehen. Die Vorsitzende der US-Regulierungsbehörde FCC, Jessica Rosenworcel, will US-Breitbandanbieter nun dazu verpflichten, zumindest Vorkehrungen gegen irrtümlich falsche Routen zu setzen.
Dazu dient Resource Public Key Infrastructure (RPKI). Erst wenn RPKI ausgerollt ist, kann die nächste Sicherheitsmaßnahme BGPsec greifen, die besseren Schutz gegen absichtliches BGP-Hijacking bietet. Rosenworcel möchte ihre vier Kollegen in der FCC davon überzeugen, dass die Behörde US-Breitbandanbieter dazu verpflichtet, ihre Datenrouten mit RPKI abzusichern.
Die neun größten ISP des Landes sollen außerdem Berichte vorlegen müssen: Einen geheimen Bericht, der ihre Pläne zur Einführung von RPKI darlegt, sowie quartalsweise öffentliche Fortschrittsberichte, die auch zeigen sollen, ob der Umsetzungsplan vernünftig ist. Zur Begründung verweist Rosenworcel [1] auf nicht spezifizierte Sicherheitswarnungen von US-Geheimdiensten, sowie auf Ergebnisse einer FCC-Untersuchung aus dem Jahr 2022 und einen Border Gateway Protocol Security Workshop aus dem letzten Sommer.
Das Problem ungesicherter Datenrouten ist lange bekannt. Schon als BGP 1989 eingeführt wurde, haben Experten darauf hingewiesen, dass Verkehr im Internet leicht umgeleitet werden kann, sodass Angreifer den Datenverkehr sehen, verändern oder einfach verschwinden lassen könnten. Lange geschah wenig. Vor etwa 20 Jahren wurde schließlich die kryptographische Absicherung des Routing-Systems durch RPKI und BGPsec entworfen. Die Einführung erfolgt jedoch nur schleppend, obwohl staatliche Angreifer insbesondere aus Russland immer wieder die Internet-Infrastruktur angreifen.
Warum die FCC erst jetzt tätig wird, ist allerdings leicht erklärt: Kurz vor Ende der Amtszeit Donald Trumps als US-Präsident hat sich die FCC selbst die Zuständigkeit zur Internetregulierung entzogen. Auf diese Weise schaffte es die damalige Republikaner-Mehrheit in der FCC, die Netzneutralität abzuschaffen. Und nach dem Amtsantritt des Demokraten Joe Biden verhinderten Republikaner im US-Parlament lange Zeit die Nachbesetzung eines den Demokraten zustehenden FC-Commissioners.
Erst vor wenigen Wochen konnte die FCC sich die Zuständigkeit für die Regulierung von Internet Service Providern wieder sichern und die Netzneutralität wieder einführen [2]. Das greift Ende Juni. Entsprechend hat es nun Sinn, weitere Aspekte der Internetregulierung in Angriff zu nehmen.
Das BG-Protokoll (RFC 1105) spezifiziert den Austausch von Informationen zwischen Routern, auf deren Basis sie die beste Route für die zwischen ihren Netzen – den Autonomen Systemen (AS) – übermittelten Datenpaketen identifizieren können. In Routing-Tabellen halten die Border-Router die besten Pfade fest. Das Border Gateway Protocol krankt daran, dass es aus einer Zeit stammt, als man einander im Netz noch vertraut hat. Jeder darf beliebige Routen verlautbaren, automatische Kontrollen sind nicht vorgesehen.
Beim sogenannten Präfix-Hijacking gibt ein Angreifer die Präfixe seiner Opfer als eigene aus. Beispielsweise kann das angreifende Netz spezifischere Adressen aus dem Netz des Opfers ankündigen oder behaupten, eine Abkürzung zu bestimmten IP-Adressblöcken zu bieten. Router ohne RPKI müssen das einfach glauben.
Mit RPKI (RFC 6840 plus über 40 weitere RFCs [3]) kann mittels Route Origin Authorisations (ROA )festgelegt werden, für welche IP-Präfixe ein Autonomous System verantwortlich ist. Kündigt es plötzlich andere IP-Präfixe an, löst das Alarm aus. Damit sollen in erster Linie die häufig vorkommenden Fehler bei der Ankündigung von Routen verhindert werden. Das vielleicht bekannteste Beispiel dafür ist die Umleitung von YouTube-Verkehr zur Pakistan Telecom.
Theoretisch gibt es seit 2017 auch eine Waffe gegen absichtliches BGP-Hijacking: BGPsec (RFC 8204) [4]. Es sichert die Routing-Informationen auf dem Weg durch das Netz ab. Statt allein die Authentizität des Ursprungs einer Routenankündigung zu prüfen, soll so sichergestellt werden, dass entlang des Pfades keine Manipulationen passieren. Es hülfe aber nur, wenn erstens RPKI ausgerollt ist und zweitens alle Netzbetreiber gleichzeitig auf BGPsec umstellten, sodass unsignierte Informationen ignoriert werden dürften. Eine solche Umstellung ist nicht in Sicht, weil dafür viele Router ausgetauscht werden müssen und die Netzbetreiber erheblichen Mehraufwand für die Verwaltung all der BGPsec-Schlüssel hätten, die für jeden Routing-Hop notwendig sind.
Außerdem setzt BGPsec voraus, dass man den Ausstellern der kryptografischen Zertifikate vertraut. Stehen diese Stellen jedoch unter staatlicher Kontrolle, ist vielleicht nicht viel gewonnen. Denn die meisten Manipulationen gehen auf Täter aus korrupten Ländern oder gar auf staatliche Akteure, die ihre eigenen Interessen verfolgen, zurück. Sie könnten auch Zertifikate ausstellen, die ihren Attacken den Anschein von Legitimität verleihen.
URL dieses Artikels:
https://www.heise.de/-9721893
Links in diesem Artikel:
[1] https://docs.fcc.gov/public/attachments/DOC-402579A1.pdf
[2] https://www.heise.de/news/USA-Die-Netzneutralitaet-ist-wieder-da-9698966.html
[3] https://blog.apnic.net/2021/03/15/which-rpki-related-rfcs-should-you-read/
[4] https://datatracker.ietf.org/doc/html/rfc8205
[5] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[6] mailto:ds@heise.de
Copyright © 2024 Heise Medien
OpenElements startet gemeinsam mit den Maintainern von Apache Maven ein Support&Care-Programm und ruft die Java Community zur Mitarbeit auf.
Open Elements [1] setzt sich zusammen mit Maintainern des Open-Source-Projekts Apache Maven [2] und Experten der Apache Foundation dafür ein, dass das Java-Build-Tool Maven mit nachhaltiger, öffentlicher Förderung langfristig unterstützt wird. Das neue Support & Care for Apache Maven Programm [3] soll die Pflege und Weiterentwicklung dieses zentralen Open-Source-Werkzeugs gewährleisten. Hierzu wird die gesamte Java-Community eingeladen, sich mit Ideen einzubringen und so aktiv die Zukunft von Maven mitzugestalten.
Maven hat sich als der Industriestandard für Build-Tools im Java-Ökosystem etabliert. Mit ca. 75 % aller Java-Projekte, die Maven verwenden [4], und über 100 Millionen Downloads pro Jahr [5] ist es der Standard zum Bauen und Verwalten von Java-Anwendungen. Von kleinen Projekten bis hin zu globalen Softwareunternehmen verlässt sich eine breite Entwicklerbasis auf Maven, um ihre Builds zu konfigurieren und zu automatisieren. Allerdings entwickelt sich die Technologie rund um Java schnell weiter, was regelmäßig neue Versionen und Verbesserungen hervorbringt. Maven muss daher kontinuierlich angepasst werden, um die aktuellen Java-Versionen zu unterstützen. Dies umfasst nicht nur die Implementierung neuer Funktionen, sondern auch das Bereitstellen von Updates, um den Anforderungen an Stabilität und Sicherheit gerecht zu werden.
Zusätzlich gibt es mit dem Erscheinen von Maven 4 zwei Major Versionen (Maven 3 und 4), die in Zukunft von Enterprise Anwendungen benötigt werden, da diese einige Zeit zur Migration auf die neue Java Version benötigen. All dies macht die Entwicklung und das Bugfixing von Maven komplizierter. Hinzu kommt, dass Stand heute kein einziger Entwickler für die Arbeit an Maven bezahlt wird. Selbst der Chair des Projektes bekommt hier nur minimale Spenden über GitHub Sponsoring.
Um Maven als Open-Source-Projekt auch in Zukunft sicher und stabil nutzen zu können, werden Ressourcen benötigt. Dies das Projekt Support & Care for Apache Maven [6] ermöglichen. Die Firma Open Elements, die mit dem klaren Fokus der Förderung von Open Source und Java gegründet wurde, hat sich hier mit verschiedenen Committern, Maintainern sowie Expertinnen und Experten der Maven- beziehungsweise Java-Szene zusammengetan, um gemeinsam öffentliche Gelder für die Weiterentwicklung von Maven zu akquirieren und transparent für die Umsetzung von dringend benötigten Meilensteinen zu verwenden.
Durch Support & Care for Apache Maven wird hierbei etwas ermöglicht, was für einzelne Developer des Maven Projektes bisher nicht realisierbar war: Mit Open Elements kann eine Legal Entity nach außen das Projekt vorantreiben und committet sich dazu, die Einnahmen für das Projekt transparent und ziel- sowie Community-orientiert zu verwalten. Das Vertrauen, das die Maven-Community hierbei Open Elements als transparenten Player im Open Source Bereich entgegenbringt, ist einmalig und ermöglicht dieses Vorhaben überhaupt erst.
Da das Ganze bereits von Anfang an so offen und transparent wie möglich gestaltet werden soll, ist die gesamte Community eingeladen, sich mit Vorschlägen bezüglich benötigter Meilensteine und Features zu beteiligen. Auf der JSail Unconference [7] im Juni werden die finalen Meilensteine definiert, die durch geförderte Ressourcen umgesetzt werden sollen. Bis dahin können alle ihre Vorschläge in den Diskussionen des GItHub-Repository zu Support & Care for Apache Maven [8] einreichen. Auf dieser Basis werden dann auf der JSail in einem moderierten Meeting die finalen Meilensteine und die Roadmap definiert. Auch dieses Event ist öffentlich.
Sobald die Roadmap finalisiert ist, kann die Gruppe hinter Support & Care for Apache Maven mit der konkreten Beauftragung von geförderten Finanzen beginnen. Der Status wird hierbei jederzeit transparent im GitHub Repository des Projekts [9] geteilt. Ziel ist es, das Tool Maven zukunftsbereit und sicher zu gestalten und zu zeigen, dass solche Vorhaben transparent in der Community umsetzbar sind. Hierbei werden die Workflows und Anträge selbstverständlich nach der Beantragung öffentlich bereitgestellt, um auch anderen Communities zu helfen diesen Schritt zu gehen.
Das Projekt kann nur mit und durch die Community realisiert werden. Daher laden wir hier noch einmal herzlich dazu ein, sich bei der Diskussion um benötigte Features unter https://github.com/OpenElements/maven-support-care/discussions [10] zu beteiligen.
URL dieses Artikels:
https://www.heise.de/-9718336
Links in diesem Artikel:
[1] https://open-elements.com/
[2] https://maven.apache.org/
[3] https://open-elements.com/support-care-maven/
[4] https://bit.ly/3Wazfga
[5] https://bit.ly/449qVz0
[6] https://open-elements.com/support-care-maven/
[7] https://jsail.ijug.eu/
[8] https://github.com/OpenElements/maven-support-care
[9] https://github.com/OpenElements/maven-support-care
[10] https://github.com/OpenElements/maven-support-care/discussions
[11] mailto:rme@ix.de
Copyright © 2024 Heise Medien
(Bild: juerginho/Shutterstock.com)
Glasfaser nimmt gerade bei Wettbewerbern der Telekom Fahrt auf, geht aus einer Analyse hervor. Aber nicht schnell genug, um die Gigabitziele 2030 zu erreichen.
Mitte 2024 können 35,9 Millionen der insgesamt 45,7 Millionen Haushalte und kleinere Unternehmen einen Gigabit-Anschluss über Glasfaser- oder TV-Kabelnetze beziehen. Die Gigabit-Versorgbarkeitsquote wird dann bei 78,6 Prozent liegen – und damit nur 2,2 Prozentpunkte über der des Vorjahres [1]. Das ist der am Mittwoch veröffentlichten 6. Gigabitstudie des Verbands der Anbieter von Telekommunikations- und Mehrwertdiensten (VATM) zu entnehmen.
17 Millionen Haushalte und KMU können laut der Erhebung mit "hybriden Glasfaser-Koaxial-Anschlüssen (HFC)" versorgt werden – also über das bewährte TV-Kabelnetz. 8,9 Millionen Haushalte oder Unternehmen sind direkt mit Glasfaser anschlussfähig (FTTB/H). Weitere 10 Millionen haben die Wahl zwischen Glasfaser und Kabel. Die Branche spricht dabei von "Homes Passed", bei denen eine Anschlussleitung oder Leerrohrsystem in der Nähe oder auf dem Grundstück ist, die für die Installation eines Gigabit-Anschlusses ausgelegt ist.
80 Prozent der gigabit-fähigen Haushalte werden laut der vom VATM und dem Beratungshaus Dialog Consult durchgeführten Untersuchung [2] von Wettbewerbsunternehmen erreicht, nur 20 Prozent von der Deutschen Telekom. Fast 60 Prozent sind auf Basis von HFC-Netzen realisierbar, der FTTB/H-Anteil nimmt im ersten Halbjahr 2024 aber deutlich um 2 Millionen auf 18,9 Millionen zu (41,2 Prozent).
Von den insgesamt 35,9 Millionen versorgbaren Haushalten und KMU nutzen 13,2 Millionen gigabitfähige Anschlüsse tatsächlich. "Homes Activated" sind ans Netz angeschlossen und es besteht ein aktiver Vertrag mit einem Internetanbieter. 8,6 Millionen entfallen dabei auf HFC, 4,6 Millionen auf Glasfaser.
90,9 Prozent der Gigabit-Vertragskunden oder 12 Millionen beziehen ihren Anschluss von den Wettbewerbsunternehmen, nur 9,1 Prozent (1,2 Millionen) von der Telekom. Die Konkurrenten haben zudem mehr als doppelt so viele Anschlüsse betriebsfertig im Vergleich zur Telekom ("Homes Connected": Leitung ist installiert, aber Vertrag besteht nicht). Das ergibt eine Take-up- beziehungsweise Buchungsrate von 35 bei den Wettbewerbern und 13 Prozent bei der Telekom.
Insgesamt steigt die Glasfaserversorgungsquote bei Homes Connected im ersten Halbjahr 2024 im Vergleich zum Vorjahr um 1,1 Punkte auf 17,7 Prozent (8,1 Millionen Haushalte). Dabei beträgt der Anteil der Telekom-Herausforderer 70,4 Prozent. Auch hier sind es dem VATM zufolge die Wettbewerber, die den flächendeckenden Glasfaserausbau vorantreiben. Das zeige nicht zuletzt ihr Anteil von über 72 Prozent beim staatlich geförderten Leitungsverlegen im ländlichen Raum.
Es sei "noch viel Tiefbauarbeit" nötig, um die Gigabitziele der Bundesregierung mit flächendeckender Glasfaserversorgung bis 2030 zu erreichen, erklärte Andreas Walter, Geschäftsführer von Dialog Consult, bei der Präsentation der Ergebnisse am Mittwoch. Eigentlich sei bereits absehbar, dass daraus nichts werde.
Auch 2024 basieren immer noch knapp zwei Drittel der von den Kunden genutzten Breitbandanschlüsse auf dem Kupferdoppelader-Anschlussnetz der Telekom: 64,8 Prozent entfallen auf DSL, worüber momentan maximal 250 MBit/s als erreichbar gelten. Dabei gelinge dem Magenta-Konzern momentan sogar eine "Remonopolisierung", erklärte Walter. Aufgrund der eingeführten "Regulierung light" und wachsweichen Open-Access-Vorgaben für einen offenen Netzzugang sei der Anteil von Wettbewerbern wie 1&1, die bei VDSL ein Vorleistungsprodukt der Telekom beziehen und dieses dann selbst vermarkten, von 45 Prozent 2021 auf 42 Prozent dieses Jahr gefallen.
Über die Hälfte der Kunden fragt mittlerweile aber Bandbreiten von 250 MBit/s und mehr nach. Die durchschnittlich gebuchte Bandbreite beträgt aktuell 485 MBit/s im Privatsektor und 636 MBit/s bei Geschäftskunden. Das über gigabit-fähige Anschlüsse erzeugte Datenvolumen liegt bei pro Anschluss und Monat im Durchschnitt bei 435 Gigabyte und ist allein im ersten Halbjahr 2023 um gut 7 Prozent gewachsen.
Die Schlussfolgerungen, die die Branche aus den Zahlen zieht, sind ähnlich wie voriges Jahr. Die Telekom habe 6,8 Millionen gigabit-fähige Anschlüsse oder rund 75 Prozent "gar nicht fertig gebaut", monierte Walter. Sie gehe in viele Gemeinden, werfe ihr Handtuch aus [3] und wolle so Wettbewerber blockieren. Zudem konzentriere sich der Bonner Konzern meist nur auf Kerngebiete von Gemeinden, was eine Analyse zum vielfach kritisierten Überbau inzwischen bestätigt [4].
Es gebe noch "viel Raum für die Telekom, den Wettbewerb auszubremsen", kritisierte VATM-Präsident David Zimmer. Da werde die oft geforderte Migration auf Glasfaser zur großen Herausforderung. Die Bundesregierung müsse daher jetzt endlich handeln und dürfe sich "nicht länger schützend vor die Telekom stellen". Nötig seien Planungssicherheit, eine investitionsfreundliche Kulisse und eine schärfere Zugangsregulierung bei FTTH.
An die Bundesnetzagentur appellierte Zimmer, den Markt "aktiv" zu gestalten und nicht nur zu verwalten. VATM-Geschäftsführer Frederic Ufer forderte zudem die EU-Kommission auf, ein "klares Bekenntnis zum Wettbewerb" zu geben. In einem Weißbuch zum künftigen Telekommunikationsmarkt vermisste er klare Signale. Ein Abschaltdatum für Kupferanschlüsse könne man ohne Vollversorgung mit Glasfaser nicht nennen.
URL dieses Artikels:
https://www.heise.de/-9719600
Links in diesem Artikel:
[1] https://www.heise.de/news/VATM-Marktstudie-Konkurrenz-wirft-Telekom-problematisches-Verhalten-vor-9543623.html
[2] https://www.vatm.de/wp-content/uploads/2024/05/VATM_DIALOG-CONSULT_Gigabitstudie-24.pdf
[3] https://www.heise.de/news/Breko-Verband-fordert-weniger-staatliche-Foerderung-9545114.html
[4] https://www.heise.de/news/Regulierer-Telekom-geht-beim-Glasfaser-Ueberbau-tendenziell-aggressiver-vor-9682317.html
[5] mailto:vbr@heise.de
Copyright © 2024 Heise Medien
(Bild: Daniel AJ Sokolov)
Monatliche Grundgebühren plus eine jährliche Zahlung - wofür eigentlich? Österreichische Verbraucher verklagen ihre Mobilfunker. Mit Erfolg.
Zusätzlich zu den monatlichen Grundgebühren haben die großen österreichischen Mobilfunk-Anbieter seit zirka 2011 ein jährliches "Servicepauschale" oder "SIM-Pauschale" von 20 bis 35 Euro eingehoben. Entscheidungen des Europäischen Gerichtshofes (EuGH) brachten jedoch die Rechtsgrundlage ins Wanken, weil die mit dem Pauschale angeblich abgegoltenen Leistungen mager sind und oft gar nicht in Anspruch genommen werden. Nun zahlen die Mobilfunker die eingehobenen Pauschalen zurück – wenn der Kunde zu Gericht geht.
Laut österreichischer Medienberichte haben mindestens 250 Kunden Ihr Geld bereits zurückerhalten, nachdem sie Klage erhoben hatten. Insgesamt betreut die Verbraucherschutzorganisation Verein für Konsumenteninformation (VKI) über 1.000 solche Klagen. In einigen Fällen lassen sich die Mobilfunker allerdings doch auf einen Gerichtsprozess ein. Sechs Urteile sind laut Berichten im Sinne der Verbraucher ergangen, eines davon ist rechtskräftig.
Eine generelle Rückerstattung ohne vorherige Klage ist dennoch nicht geplant. Das könnte die Anbieter einer Schätzung zufolge eine halbe Milliarde Euro kosten. Darauf zielt eine im April erhobene Verbandsklage des VKI [1] gegen A1 (Telekom Austria), Magenta (Deutsche Telekom) und Drei (Hutchison) ab.
Die unpopulären jährlichen Servicepauschalen gibt es auf dem österreichischen Telekommunikationsmarkt seit etwa 2011. Eingeführt wurden sie zunächst von großen Internet Service Providern (ISP), bald sprangen auch die großen Mobilfunker auf den Zug auf. Ein jährliches Pauschale lässt Tarife auf den ersten Blick billiger aussehen, als sie sind. Offiziell soll damit beispielsweise der Aufwand für die Aktualisierung von Kontaktdaten, wenn der Kunde umzieht, ersetzt werden, oder für den Tausch von SIM-Karten, wenn sie kaputt oder verloren gehen.
Gerne wurde das jährliche Entgelt im Kleingedruckten versteckt, was sich aber als rechtlich unzulässig, weil irreführend [2] (OGH 4 Ob 220/12z), erwies. Außerdem behielten sich die Anbieter das gesamte Pauschale selbst dann, wenn der Kunde unter dem Jahr kündigte. 2016 entschied das Handelsgericht Wien in einem Prozess gegen Marktführer A1 (Telekom Austria), dass Österreichs Telecom-Abieter das Pauschale anteilig zurückzuzahlen [3] haben, wenn der Vertrag endet. Diskontanbieter wie HoT [4] und Yesss verzichten allerdings seit jeher auf die unbeliebten Pauschalen.
Erst vor einigen Monaten begann ein Abrücken von den Servicepauschalen, allerdings nur für neu abgeschlossene Verträge. Verbraucher profitieren nun von transparenteren Angeboten ohne Servicepauschalen, aber nicht unbedingt von niedrigeren Gesamtkosten. Das heise-Vergleichsportal Tarife.at [5] hat erhoben, dass die neuen Tarife von A1 und Drei zwar leicht günstiger sind, Magenta hingegen das weggefallene Pauschale auf die monatlichen Gebühren aufgeschlagen hat. Auch die virtuellen Anbieter Red Bull Mobile und MTEL haben demnach ihre monatlichen Gebühren hochgeschraubt.
Der Sinneswandel der Telecom-Anbieter ist vor dem Hintergrund eines 2022 ergangenen Urteils des österreichischen Obersten Gerichtshofes (OGH, Az. 3 Ob 155/22y [6]) erfolgt. Der VKI verklagte erfolgreich ein Fitnesscenter, weil es 20 Euro Anmeldegebühr, 20 Euro für die Zutrittskarte und halbjährlich 20 Euro Servicepauschale verrechnete. Alle diese Gebühren sind unzulässig, weil ihnen kein über die sowieso vertraglich geschuldeten Leistungen hinausgehender Aufwand gegenübersteht.
Die Entscheidung stützt sich auf vorangegangene Rechtsprechung des EuGH. Die Mobilfunker waren der Auffassung, dass sich diese Rechtsprechung nicht auf Mobilfunkverträge anwenden lasse. Österreichische Gerichte sehen das offensichtlich anders.
URL dieses Artikels:
https://www.heise.de/-9716906
Links in diesem Artikel:
[1] https://konsument.at/servicepauschale-ak-klagt-a1-magenta-drei
[2] https://www.ogh.gv.at/entscheidungen/entscheidungen-ogh/ein-fernsehwerbespot-ist-irrefuehrend-wenn-der-zuseher-die-gebotene-information-nicht-rasch-genug-erfassen-kann-und-dadurch-einen-unrichtigen-eindruck-gewinnt/
[3] https://www.heise.de/news/Oesterreich-Telecom-Pauschale-ist-anteilig-zurueckzuzahlen-3348105.html
[4] https://www.heise.de/news/HoT-Mobilfunk-zum-Kampfpreis-bei-oesterreichischer-Aldi-Tochter-2498404.html
[5] https://www.tarife.at/
[6] https://www.ris.bka.gv.at/Dokumente/Justiz/JJT_20221117_OGH0002_0030OB00155_22Y0000_000/JJT_20221117_OGH0002_0030OB00155_22Y0000_000.html
[7] mailto:ds@heise.de
Copyright © 2024 Heise Medien
(Bild: Timofeev Vladimir/Shutterstock.com)
The established network operators are to be allowed to continue using frequencies until 2030 and expand in the area. 1&1 is to share in the frequency cake.
On Monday, the German Federal Network Agency published a long-awaited consultation draft on the upcoming allocation of mobile frequencies in the 800 MHz, 1.8 GHz and 2.6 GHz ranges. According to the draft, the regulatory authority wants to extend the frequency usage rights of the three established mobile network operators Deutsche Telekom, Vodafone and Telefónica (o2), which expire in 2025, by five years. In return, they are to provide around 99.5% of the area with at least 50 Mbit/s from 2030. Newcomer 1&1 is also to be given access to area frequencies. If necessary, the regulator also wants to enforce national roaming.
The requirements also include [1] Telekom, Vodafone and Telefónica providing 99% of households in rural communities and all federal highways with 100 Mbit/s as well as all state and national highways and inland waterways with 50 Mbit/s from 2029 in every federal state. From 2030, they would also have to offer 50 MBit/s on district roads.
Newcomer 1&1 also wants a slice of the frequency pie and is pushing for the opportunity to acquire usage rights itself. The Federal Network Agency does not provide for this in its draft, but it links the extension to the obligation to grant 1&1 "cooperative shared use" of at least 2×5 MHz of spectrum "below 1 GHz". Müller explained that this requirement would be deemed to have been met if one of the providers granted the newcomer this amount of spectrum.
The regulator also wants to impose another negotiation requirement for national roaming in favor of the fourth network operator. In parallel, Telefónica Deutschland is to be obliged to continue the existing transfer of 2 x 10 MHz in the 2.6 GHz band [2] for the duration of the extension at 1&1's request. If national roaming is not granted by any nationwide network operator from 2026, the Network Agency reserves the right to order a corresponding shared use option. Müller expects "that the market will find a solution". At the same time, deadlines are being set so that a decision can be made in an emergency.
In an initial statement, 1&1 was at least not dismissive. "We are open to a cooperative solution," said CEO Ralph Dommermuth on Monday afternoon. "The important thing is that we can use a sufficiently large amount of frequency at market conditions in order to adequately supply our more than 12 million customers."
The regulatory authority is thus essentially sticking to its proposal, which it already outlined in key points in September and put up for discussion [3]. Affected companies and organizations now have until 8 July to submit their comments. Following their evaluation, the agency's three-member Presidential Chamber will then decide on the frequency allocation in the fall "in consultation" with its 32-member Advisory Board.
The regulator intends to make the extended frequency spectrum available for mobile communications at a later date together with the usage rights from the 700 MHz, 900 MHz, 1.5 GHz and 1.8 MHz ranges, which expire in 2033. This is likely to be via an auction again. However, such an auction could take place "in many different forms", Müller explained. The market would also be consulted on this. The idea is to put together as large a package as possible so that "many players can take part".
The planned frequency procedure has been causing unrest for some time. In February, former Federal Constitutional Court judge Udo Di Fabio came to the conclusion in an expert opinion for 1&1 that the plan was unlawful [4]. Researchers and consultants had previously determined on behalf of the Network Agency that no special protective measures were necessary for the newcomer [5]. The Monopolies Commission argued that the licenses should be extended for a maximum of three years [6].
The Federal Cartel Office had spoken out against extending the rights of use [7]. "The allocation of frequencies is a central and decisive factor for competition in the mobile communications sector," said Andreas Mundt, President of the Federal Cartel Office, on Monday. "It is important that any extension is accompanied by effective measures to promote competition." Müller assured that all requirements had been evaluated. There are "weighty regulatory reasons" for the path outlined.
Sharp criticism came from the German Broadband Association (Breko): With the proposal, the Federal Network Agency is giving incumbent operators "two gifts at once - without any compensation for their competitors". In addition to the extension of usage rights, the top dogs would not have to fear any unwelcome competition in the future. By continuing to "stick to the ineffective negotiation requirement", the regulator is missing the opportunity "to create effective competition in mobile telephony with the introduction of a service provider obligation [8] ".
URL dieses Artikels:
https://www.heise.de/-9716605
Links in diesem Artikel:
[1] https://www.bundesnetzagentur.de/SharedDocs/Downloads/DE/Sachgebiete/Telekommunikation/Unternehmen_Institutionen/Frequenzen/OffentlicheNetze/Mobilfunk/EntwurfPKE2024.pdf?__blob=publicationFile&v=1
[2] https://www.heise.de/news/Mobilfunk-1-1-Drillisch-mietet-Frequenzen-von-Telefonica-4619488.html?from-en=1
[3] https://www.heise.de/news/Bundesnetzagentur-Lieber-Mobilfunkausbau-als-Frequenzmilliarden-9305497.html?from-en=1
[4] https://www.heise.de/news/Ex-Bundesverfassungsrichter-Frequenzverlaengerung-ohne-1-1-ist-rechtswidrig-9635158.html?from-en=1
[5] https://www.heise.de/news/Bundesnetzagentur-Gutachter-sehen-wirksamen-Wettbewerb-im-Mobilfunkmarkt-9606120.html?from-en=1
[6] https://www.heise.de/news/Netze-1-1-braucht-eine-Chance-im-Mobilfunkmarkt-9573751.html?from-en=1
[7] https://www.heise.de/news/Frequenzplan-der-Netzagentur-Bundeskartellamt-sorgt-sich-um-1-1-9356839.html?from-en=1
[8] https://www.heise.de/news/Diensteanbieterverpflichtung-Netzbetreiber-vs-kleinere-Mobilfunkanbieter-9190776.html?from-en=1
[9] mailto:olb@heise.de
Copyright © 2024 Heise Medien
(Bild: Timofeev Vladimir/Shutterstock.com)
Die etablierten Netzbetreiber sollen Frequenzen bis 2030 weiter nutzen dürfen und dafür in der Fläche ausbauen. 1&1 soll am Frequenzkuchen beteiligt werden.
Die Bundesnetzagentur hat am Montag einen lange erwarteten Konsultationsentwurf zur anstehenden Vergabe von Mobilfunkfrequenzen in den Bereichen um 800 MHz, 1,8 GHz und 2,6 GHz veröffentlicht. Die Regulierungsbehörde will demnach die 2025 auslaufenden Frequenznutzungsrechte der drei etablierten Mobilfunknetzbetreiber Deutsche Telekom, Vodafone und Telefónica (o2) um fünf Jahre verlängern. Im Gegenzug sollen die ab 2030 etwa 99,5 Prozent der Fläche mit mindestens 50 MBit/s versorgen. Newcomer 1&1 soll zugleich auch Zugang zu Flächenfrequenzen erhalten. Zur Not will der Regulierer auch nationales Roaming durchsetzen.
Zu den Anforderungen gehört zudem [1], dass Telekom, Vodafone und Telefónica ab 2029 in jedem Bundesland 99 Prozent der Haushalte in Gemeinden im ländlichen Raum sowie alle Bundesstraßen mit 100 MBit/s sowie alle Landes- und Staatsstraßen sowie Binnenwasserstraßen mit 50 MBit/s ausstatten. Von 2030 an müssten sie zudem auch auf Kreisstraßen 50 MBit/s anbieten.
Der Neueinsteiger 1&1 will auch am Frequenzkuchen beteiligt werden und drängt auf eine Möglichkeit, selbst Nutzungsrechte erwerben. Das sieht die Bundesnetzagentur in ihrem Entwurf nicht vor, doch verknüpft sie die Verlängerung mit der Pflicht, 1&1 die "kooperative Mitnutzung" von mindestens 2×5 MHz Spektrum "unterhalb von 1 GHz" zu gewähren. Diese Auflage gelte als erfüllt, wenn einer der Anbieter dem Neuling Spektrum in diesem Umfang überlasse, erläuterte Müller.
Zudem will der Regulierer zugunsten des vierten Netzbetreibers erneut ein Verhandlungsgebot für nationales Roaming anordnen. Telefónica Deutschland soll parallel verpflichtet werden, die bestehende Überlassung von 2 x 10 MHz im 2,6-GHz-Band [2] für die Laufzeit der Verlängerung auf Nachfrage von 1&1 fortzuführen. Würde ab 2026 von keinem bundesweiten Netzbetreiber National Roaming gewährt, behält sich die Netzagentur vor, eine entsprechende Mitnutzungsmöglichkeit anzuordnen. Müller erwartet, "dass der Markt eine Lösung findet". Zugleich setze man dafür Fristen, um im Notfall selbst entscheiden zu können.
1&1 zeigte sich in einer ersten Stellungnahme zumindest nicht ablehnend. "Einer kooperativen Lösung stehen wir offen gegenüber", sagte CEO Ralph Dommermuth am Montagnachmittag. "Wichtig ist, dass wir eine ausreichend große Frequenzmenge zu marktgerechten Konditionen nutzen können, um unsere mehr als 12 Millionen Kundinnen und Kunden angemessen zu versorgen."
Die Regulierungsbehörde bleibt damit im Wesentlichen bei ihrem Vorschlag, den sie im September schon in Eckpunkten skizzierte und zur Diskussion stellte [3]. Bis zum 8. Juli können betroffene Unternehmen und Organisationen nun Stellungnahmen einreichen. Nach deren Auswertung soll dann im Herbst die 3-köpfige Präsidentenkammer der Agentur "im Benehmen" mit deren 32-köpfigen Beirat über die Frequenzvergabe entscheiden.
Das verlängerte Frequenzspektrum will der Regulierer zu einem späteren Zeitpunkt zusammen mit den 2033 auslaufenden Nutzungsrechten aus den Bereichen 700 MHz, 900 MHz, 1,5 GHz und 1,8 MHz für den Mobilfunk zur Verfügung stellen. Dann voraussichtlich wieder über eine Auktion. Eine solche Versteigerung könne aber "in vielfachen Ausprägungen" erfolgen, führte Müller aus. Auch dazu werde man den Markt konsultieren. Die Idee sei, ein möglichst großes Paket zu schnüren, damit "viele Akteure zum Zuge" kommen könnten.
Das geplante Frequenzverfahren sorgt bereits seit Längerem für Unruhe. So kam der Ex-Bundesverfassungsrichter Udo Di Fabio im Februar in einem Gutachten für 1&1 zum Schluss, dass das Vorhaben rechtswidrig sei [4]. Forscher und Berater ermittelten zuvor im Auftrag der Netzagentur, dass für den Neuling keine speziellen Schutzmaßnahmen nötig sind [5]. Die Monopolkommission plädierte dafür, die Lizenzen um maximal drei Jahre zu verlängern [6].
Das Bundeskartellamt hatte sich dagegen ausgesprochen, die Nutzungsrechte fortzuschreiben [7]. "Die Frequenzvergabe ist ein ganz zentraler und vorentscheidender Faktor für den Wettbewerb im Mobilfunksektor", sagte Kartellamtspräsident Andreas Mundt am Montag. "Wichtig ist, dass eine etwaige Verlängerung mit wirksamen wettbewerbsfördernden Maßnahmen flankiert wird." Man habe alle Bedarfe ausgewertet, versicherte Müller. Für den aufgezeigten Weg gebe es "regulatorisch gewichtige Gründe".
Scharfe Kritik kommt vom Bundesverband Breitbandkommunikation (Breko): Mit dem Vorschlag mache die Bundesnetzagentur den etablierten Betreibern "gleich zwei Geschenke – ohne jeglichen Ausgleich für deren Wettbewerber". Neben der Verlängerung der Nutzungsrechte müssten die Platzhirsche auch künftig keine unliebsame Konkurrenz fürchten. Indem der Regulierer weiter "am wirkungslosen Verhandlungsgebot" festhalte, verpasse er die Chance, "mit der Einführung einer Diensteanbieterverpflichtung [8] wirksamen Wettbewerb im Mobilfunk zu schaffen".
URL dieses Artikels:
https://www.heise.de/-9716578
Links in diesem Artikel:
[1] https://www.bundesnetzagentur.de/SharedDocs/Downloads/DE/Sachgebiete/Telekommunikation/Unternehmen_Institutionen/Frequenzen/OffentlicheNetze/Mobilfunk/EntwurfPKE2024.pdf?__blob=publicationFile&v=1
[2] https://www.heise.de/news/Mobilfunk-1-1-Drillisch-mietet-Frequenzen-von-Telefonica-4619488.html
[3] https://www.heise.de/news/Bundesnetzagentur-Lieber-Mobilfunkausbau-als-Frequenzmilliarden-9305497.html
[4] https://www.heise.de/news/Ex-Bundesverfassungsrichter-Frequenzverlaengerung-ohne-1-1-ist-rechtswidrig-9635158.html
[5] https://www.heise.de/news/Bundesnetzagentur-Gutachter-sehen-wirksamen-Wettbewerb-im-Mobilfunkmarkt-9606120.html
[6] https://www.heise.de/news/Netze-1-1-braucht-eine-Chance-im-Mobilfunkmarkt-9573751.html
[7] https://www.heise.de/news/Frequenzplan-der-Netzagentur-Bundeskartellamt-sorgt-sich-um-1-1-9356839.html
[8] https://www.heise.de/news/Diensteanbieterverpflichtung-Netzbetreiber-vs-kleinere-Mobilfunkanbieter-9190776.html
[9] mailto:vbr@heise.de
Copyright © 2024 Heise Medien
(Bild: Tero Vesalainen/Shutterstock.com)
ASP.NET Core 8.0 führt Code-Analyzer ein, die vor potenziellen Fehlern warnen und Best Practices empfehlen.
Für ASP.NET Core basierte WebAPIs gibt es nun einen Code-Analyzer, der Entwickler warnt, wenn sie mehrere Parameter mit [FromBody] annotieren. Der Inhalt einer HTTP-Anfrage kann immer nur auf einen Parameter einer WebAPI-Operation abgebildet werden.
Ein weiterer Analyzer empfiehlt Request.Headers.Add() zu vermeiden und stattdessen Append() oder den Indexer zu verwenden.
Bei Mininal-APIs gibt es eine Warnung, wenn TryParse() or BindAsync() nicht die richtige Signatur aufweisen.
URL dieses Artikels:
https://www.heise.de/-9710151
Links in diesem Artikel:
[1] https://www.heise.de/blog/Neu-in-NET-8-0-1-Start-der-neuen-Blogserie-9574680.html
[2] https://www.heise.de/blog/Neu-in-NET-8-0-2-Neue-Anwendungsarten-9581213.html
[3] https://www.heise.de/blog/Neu-in-NET-8-0-3-Primaerkonstruktoren-in-C-12-0-9581346.html
[4] https://www.heise.de/blog/Neu-in-NET-8-0-4-Collection-Expressions-in-C-12-0-9581392.html
[5] https://www.heise.de/blog/Neu-in-NET-8-0-5-Typaliasse-in-C-12-0-9594693.html
[6] https://www.heise.de/blog/Neu-in-NET-8-0-6-ref-readonly-in-C-12-0-9602188.html
[7] https://www.heise.de/blog/Neu-in-NET-8-0-7-Optionale-Parameter-in-Lambda-Ausdruecken-in-C-12-0-9609780.html
[8] https://www.heise.de/blog/Neu-in-NET-8-0-8-Verbesserungen-fuer-nameof-in-C-12-0-9616685.html
[9] https://www.heise.de/blog/Neu-in-NET-8-0-9-Neue-und-erweiterte-Datenannotationen-9623061.html
[10] https://www.heise.de/blog/Neu-in-NET-8-0-10-Plattformneutrale-Abfrage-der-Privilegien-9630577.html
[11] https://www.heise.de/blog/Neu-in-NET-8-0-11-Neue-Zufallsfunktionen-9637003.html
[12] https://www.heise.de/blog/Neu-in-NET-8-0-12-Eingefrorene-Objektmengen-9643310.html
[13] https://www.heise.de/blog/Neu-in-NET-8-0-12-Leistung-von-FrozenSet-9649523.html
[14] https://www.heise.de/blog/Neu-in-NET-8-0-14-Neue-Waechtermethoden-fuer-Parameter-9656153.html
[15] https://www.heise.de/blog/Neu-in-NET-8-0-15-Geschluesselte-Dienste-bei-der-Dependency-Injection-9662004.html
[16] https://www.heise.de/blog/Neu-in-NET-8-0-16-Neue-Methoden-fuer-IP-Adressen-9670497.html
[17] https://www.heise.de/blog/Neu-in-NET-8-0-17-Zeitabstraktion-fuer-Tests-mit-Zeitangaben-9675891.html
[18] https://www.heise.de/blog/Neu-in-NET-8-0-18-Ein-Zeitraffer-mit-eigenem-FakeTimeProvider-9683197.html
[19] https://www.heise.de/blog/Neu-in-NET-8-0-19-Razor-HTML-Rendering-in-beliebigen-NET-Anwendungen-9691146.html
[20] https://www.heise.de/blog/Neu-in-NET-8-0-20-Neue-Code-Analyzer-fuer-NET-Basisklassen-9706875.html
[21] https://www.heise.de/blog/Neu-in-NET-8-0-20-Neue-Code-Analyzer-fuer-ASP-NET-Core-9710151.html
[22] https://www.heise.de/blog/Neu-in-NET-8-0-22-Neues-Steuerelement-OpenFolderDialog-fuer-WPF-9722901.html
[23] mailto:rme@ix.de
Copyright © 2024 Heise Medien
(Bild: United Internet)
United Internet meldet moderaten Umsatzzuwachs im ersten Quartal 2024. Die Zahl der gebührenfreien E-Mail-Konten fällt rasch.
200.000 bezahlte Kundenverträge hat die United Internet AG (1&1) im ersten Quartal 2024 hinzugewonnen. Der Quartalsumsatz ist auf 1,565 Milliarden Euro gestiegen, wozu auch der Schalttag im Februar beigetragen hat. Im Jahresabstand ist das ein Zuwachs von 2,2 Prozent. Das entspricht exakt dem Anstieg des Verbraucherpreisindex' in Deutschland im März sowie im April; in den ersten beiden Monaten des Jahres lag die Inflation um ein paar Promillepunkte höher.
Das Unternehmen bezeichnet seinen Umsatzanstieg selbst als "moderat". Grund sei, dass es weniger Smartphones verkauft habe. Das ficht das Management aber nicht an: "Hardware-Umsätze sind margenschwach und haben keine nennenswerten Auswirkungen auf die Ergebniskennzahlen", erläutert die Firmenmitteilung vom Mittwoch [1].
In der Tat ist das Ergebnis vor Zinsen, Steuern und Abschreibungen (EBITDA) um 7,3 Prozent auf 342 Millionen Euro gestiegen. Dafür steht beim Ergebnis vor Zinsen und Steuern (aber mit Abschreibungen, genannt EBIT) ein kleines Minus von acht Promille auf 187 Millionen Euro. Kein Wunder: United Internet baut das Glasfasernetz der Tochter 1&1 Versatel aus und errichtet derzeit ein eigenes 5G-Mobilfunknetz für 1&1 [2]. Das führt zu höheren Abschreibungen.
Aus den obgenannten Zahlen hat der Buchhalter den Stromverkauf und das sieche De-Mail herausgerechnet. Zumindest in der Bundesverwaltung wird De-Mail Ende August ausgedient [3] haben. Nach Angaben aus dem Vorjahr betreibt 1&1 rund 800.000 private De-Mail-Postfächer (auch unter den Marken Web.de und GMX). Außerdem gehörten rund 20.000 Unternehmen und Behörden zu den De-Mail-Kunden des Konzerns. United Internet hat mit De-Mail und Stromverkauf im ersten Quartal 6,6 Millionen Euro umgesetzt (-10%); das Minus beim EBITDA ist deutlich geschrumpft, nämlich von -4,2 auf -1,3 Millionen Euro.
Überraschend ist, dass die Investitionsausgaben des Konzerns gesunken sind, nämlich um 3,5 Prozent auf nicht ganz 140 Millionen Euro. (Im Gesamtjahr 2024 sollen sie aber 10-20 Prozent steigen.) Wichtige Kennzahlen wie operativen Cashflow, Betriebsgewinn und Reingewinn behält United Internet beim Quartalsergebnis für sich. Das Ergebnis je Aktie ist um 18,6 Prozent eingebrochen, der freie Cashflow mit -143 Millionen Euro weitaus negativer als vor einem Jahr (-4 Millionen). Folglich musste der Konzern mehr Schulden machen. Die Nettoverbindlichkeiten bei Banken sind um 7,3 Prozent auf gut 2,6 Milliarden Euro gewachsen.
Ende März zählte United Internet insgesamt 28,65 Millionen Verträge mit zahlenden Kunden, ein Zuwachs von 200.000 gegenüber dem Jahresbeginn (und von fast einer Million im Jahresabstand). Die Zahl der bereitgestellten Internetzugänge über Mobilfunk ist um 40.000 auf 12,29 Millionen gestiegen, die Festnetzbreitbandanschlüsse liegen stabil bei knapp über vier Millionen.
Dazu kommen noch zahlende Kunden für Dienstleistungen. Bei Geschäftskunden sind das beispielsweise Webhosting und Domains. In diesem Bereich konnte United Internet 100.000 Nettoneukunden gewinnen und verzeichnete Ende März 9,49 Millionen Verträge. An Privatkunden konnte das Unternehmen zusätzlich 60.000 kostenpflichtige E-Mail-Konten verkaufen und kam zum Quartalsschluss auf 2,86 Millionen. In dieser Statistik nicht enthalten sind 39,2 Millionen gebührenfreie E-Mail-Konten (-730.000 netto, was 2,4 Kontoschließungen pro Minute entspricht).
URL dieses Artikels:
https://www.heise.de/-9713127
Links in diesem Artikel:
[1] https://www.united-internet.de/investor-relations/publikationen/meldungen/meldungen-detail/news/united-internet-mit-erfolgreichem-start-ins-geschaeftsjahr-2024.html
[2] https://www.heise.de/news/1-1-beginnt-5G-Probebetrieb-7223637.html
[3] https://www.heise.de/news/Bundesregierung-kuendigt-Ende-von-De-Mail-in-der-Verwaltung-an-9180138.html
[4] mailto:ds@heise.de
Copyright © 2024 Heise Medien
(Bild: Stella106/Shutterstock.com)
Die neue Version 22 von Node.js ist erschreckend unspektakulär. Vielleicht ist es für mich nach 12 Jahren mit Node.js an der Zeit, die Beziehung zu beenden.
Vor rund zwei Wochen, am 24. April, wurde die neue Version 22 von Node.js [1] veröffentlicht. Daher werde ich in diesem Artikel zunächst die Neuerungen besprechen. Doch das ist nicht alles: Es wird auch um die eingeschlagene Richtung in der aktuellen Entwicklung von Node.js gehen, mit der ich persönlich nicht mehr ganz so zufrieden bin wie all die Jahre zuvor. Dass irgendwo ein Problem besteht, deutet schon der Titel dieses Artikels an: "Lass uns Freunde bleiben" ist eine Floskel, die in der Regel zwei Menschen nutzen, die sich nach einer Beziehung trennen und indirekt ausdrücken möchten, dass sie auf jeglichen weiteren Kontakt gut und gerne verzichten können.
Doch beginnen wir zunächst mit den Fakten. Node.js 22 ist offensichtlich eine gerade Versionsnummer, was bedeutet, dass diese Version im kommenden Oktober zur neuen LTS-Version (Long-Term Support) werden wird. Und was bietet diese neue Version? Um es kurz zu machen: Ich persönlich empfinde Node.js 22 als extrem unspektakulär, und das meine ich leider nicht im positiven Sinne. Denn Neuerungen muss man buchstäblich mit der Lupe suchen, und das, was dann tatsächlich neu ist, ist entweder uninteressant oder schon dermaßen lange überfällig, dass es mir schwerfällt, dafür noch Begeisterung aufzubringen.
Bitte verstehen Sie mich dabei nicht falsch: Es ist grundsätzlich natürlich erfreulich, dass die Entwicklung von Node.js mit der neuen Version wieder einen kleinen Schritt vorangeht, doch angesichts der aktuellen Entwicklungen bei Deno [2] und Bun [3] habe ich gewisse Bedenken, was die Zukunft von Node.js betrifft. Doch was genau sind diese unspektakulären Neuerungen?
Als Erstes ist zu erwähnen, dass Node.js nun über einen Watch-Mode verfügt und außerdem Websockets nativ unterstützt. Wenn Sie jetzt stocken, weil Sie dachten, dass es beides in Node.js bereits gab, dann liegen Sie richtig: Beide Features waren schon früher vorhanden, der Watch-Mode seit Version 19 [5], Websockets hingegen seit Version 21 [6]. Neu ist daher eigentlich nur, dass die beiden Features nicht mehr als experimentell, sondern als stabil gekennzeichnet sind. Beides ist grundsätzlich auch erfreulich, stellt jedoch kaum eine bahnbrechende Neuerung dar, insbesondere, da beides seit Jahren überfällig war.
Zum Thema experimentelle Features: Tatsächlich neu ist, dass man Skripte aus der package.json, die bisher über npm run ausgeführt wurden, jetzt auch über node --run starten kann. Das verbessert geringfügig die Performance beim Starten des jeweiligen Skriptes, aber abgesehen davon würde ich auch hier sagen: Ganz nett, aber nichts Weltbewegendes. Am interessantesten ist dabei vielleicht noch der Aspekt, dass die Skripte aus der package.json auf dem Weg unabhängig von npm werden, sodass der Aufruf auch mit anderen Paketmanagern konsistent funktioniert.
Zwei weitere neue Features sind ein vergrößerter interner Puffer für Streams und endlich die Unterstützung für Globs im fs-Modul. Aber auch hier gilt, dass diese Features nett sind, aber dass man auch weiterhin gut ohne sie ausgekommen wäre. Bis zu diesem Punkt, denke ich, werden Sie mir zustimmen, die Neuerungen in Node.js 22 sind eher überschaubar und tatsächlich sehr unspektakulär.
Damit kommen wir zum einzigen Feature, das tatsächlich nicht ganz so unspektakulär ist, das aber meiner persönlichen Meinung nach ungefähr fünf Jahre zu spät kommt: Ab Node.js 22 ist es nämlich möglich, zumindest experimentell, ein ESM-Modul per require zu laden. Bisher ging das nicht, und es stellte sich stets die Frage, wann man die eigene Anwendung am besten auf ESM umstellen solle beziehungsweise ab wann man ESM-basierte Module verwenden könne.
Dieses Problem erübrigt sich nun weitestgehend. Denn mit der neuen Fähigkeit wird endlich der Mischbetrieb von CommonJS und ESM möglich. Das ist grundsätzlich eine begrüßenswerte Sache, spielt aber in der Praxis kaum noch eine Rolle, weil sich ESM inzwischen (nicht zuletzt dank TypeScript) weit verbreitet und etabliert hat. Das Problem, das damit gelöst wird, war vor ein paar Jahren weitaus relevanter, als es das heute ist. Denn inzwischen funktioniert das Meiste problemlos mit ESM. Insofern ist das Feature beachtlich, nur kommt es, wie gesagt, ein paar Jahre zu spät.
Und das war’s. Das ist Node.js 22.
Ich habe vorhin bereits Deno und Bun angesprochen. Wer meine Arbeit näher verfolgt, weiß, dass ich Deno und Bun eher skeptisch gegenüberstehe [7]. Dennoch kann man nicht abstreiten, dass beide Projekte frischen Wind in die gesamte JavaScript-Welt bringen. Node.js hingegen hinkt seit vielen Versionen mehr schlecht als recht hinterher: Es fehlt immer noch ein integrierter Linter. Es fehlt ein integrierter Formatter. Zwar gibt es inzwischen einen Compiler, aber der ist derart umständlich zu benutzen, dass ihn praktisch niemand verwendet. Immer noch fehlt eine vernünftige Unterstützung für TypeScript. Es fehlt eine umfangreiche, auf Sandboxing basierende Sicherheitslösung. Es fehlt immer noch Unterstützung für JSX, geschweige denn für TSX. Und so weiter.
Und das ist irgendwie ein wenig dürftig. Mir ist klar, dass es viel einfacher ist, all diese Dinge in einem neuen Projekt einzubauen, als sie in einer bestehenden Codebasis nachzuziehen, aber trotzdem frage ich mich: Was ist denn bei Node.js in den vergangenen drei Jahren eigentlich überhaupt passiert? Denn den Eindruck, dass die jeweils neue Version nicht so viel zu bieten hat ist, habe ich leider nicht zum ersten Mal, sondern offen gestanden schon zum inzwischen fünften Mal in Folge!
Das hat nun im Laufe der Zeit dazu geführt, dass ich mich gedanklich schrittweise von Node mehr und mehr verabschiedet habe. Ich fühle mich inzwischen deutlich wohler bei Go und arbeite damit weitaus effizienter und produktiver.
Wer mich schon länger kennt, könnte mich nun kritisieren und mir vorwerfen: "Aber du bist doch die vergangenen zehn Jahre durch die Gegend gerannt und hast Node als die beste Erfindung seit der Erfindung von geschnittenem Brot angepriesen!" – und das wäre richtig. Sie könnten sogar noch einen Schritt weitergehen und sagen: "Und davor waren es zehn Jahre lang C# und .NET!" – und auch das wäre richtig. Aber ich habe momentan das Gefühl, dass ich mich, ähnlich wie ich mich um 2010 von C# und .NET verabschiedet habe, aktuell gedanklich auch von Node verabschiede.
Doch woran liegt das? Warum war ich zweimal für rund zehn Jahre mit einer Technologie sehr glücklich, und dann kam mehr oder weniger plötzlich der große Bruch? Liegt das an den Technologien selbst? Liegt es an mir? Was ist der Grund dafür? Um bei den Floskeln zu bleiben, könnte ich nun sagen: "Es liegt nicht an Dir, es liegt an mir." Doch ist das wirklich so?
Selbstverständlich habe ich mich weiterentwickelt und verändert, doch das gilt auch für die jeweiligen Technologien. C# und .NET waren um das Jahr 2010 nicht mehr dasselbe wie zehn Jahre zuvor, und auch Node.js hat sich in den vergangenen zehn Jahren weiterentwickelt. Nun stellt sich die Frage: Wie bewertet man das? Ich persönlich greife gerne auf eine sehr einfache Metrik zurück, um Technologien zu beurteilen. Ich frage mich nämlich, inwiefern die folgende Aussage zutrifft: "Make simple things simple, and complex things possible."
Meine Erfahrung zeigt mir, dass sich langfristig jene Technologien durchsetzen, die beides erfüllen – die also eine niedrige Einstiegshürde bieten und bei komplexen Anliegen nicht im Weg stehen. Genau das war um das Jahr 2000 herum der Grund, warum mich C# und .NET bereits mit der ersten Betaversion so begeistert haben. Sie waren viel einfacher zugänglich als zum Beispiel C++, aber zugleich weitaus mächtiger als Visual Basic. Sie waren simpler und boten gleichzeitig sehr viele Möglichkeiten. C# hat für mich damals die Anforderung "make simple things simple" definitiv erfüllt und mir im Vergleich zu dem, was ich zuvor gemacht hatte, ein ganzes Universum eröffnet. Insofern wurde "make complex things possible" ebenfalls erfüllt.
Doch C# und .NET haben (für mein Empfinden) leider nicht mit dem Zeitgeist Schritt gehalten, und um das Jahr 2010 kamen immer mehr Themen auf, bei denen ich nicht mehr das Gefühl hatte, dass diese beiden Anforderungen noch erfüllt waren. Das betraf insbesondere den Schritt in die Cloud und einige Jahre später dann auch das Thema Containerisierung – bei beiden hat sich Microsoft lange Zeit äußerst schwergetan.
Das Ergebnis: C# und .NET wirkten zunehmend schwerfälliger, umständlicher, komplexer und träger, und das hat mir damals immer weniger zugesetzt. In dieser Zeit kam ich mit Node.js in Berührung, das das genaue Gegenteil davon war: Klein, kompakt, leichtgewichtig und schnell. Es war so viel einfacher und effizienter, Web- und Cloud-APIs mit Node.js zu entwickeln als mit ASP.NET, dass Node.js für mich der logische nächste Schritt [8] war. Es hat "simple things" wieder "simple" gemacht und mir weit mehr Möglichkeiten geboten, auch "complex things" umzusetzen, weil Node im Vergleich zum damaligen (!) ASP.NET viel einfachere Möglichkeiten bot, nah am HTTP-Protokoll zu agieren.
Doch wie sieht die Entwicklung mit Node heutzutage aus? Zunächst benötigt man eine Myriade an Werkzeugen, selbst um ein einfaches Basis-Setup zu erhalten: TypeScript, ESLint, Prettier, Mocha, eine ganze Reihe von passenden Plug-ins, die passenden Regeln, alles will konfiguriert werden, vielleicht noch einen Bundler, und, und, und. Dann gab es jahrelang das Theater mit CommonJS versus ESM, der fehlenden oder mangelhaften Unterstützung durch diverse Tools, und so weiter.
Das entspricht einfach nicht mehr meiner Vorstellung von "make simple things simple". Zugegebenermaßen ist das im Backend nicht ganz so schlimm wie im Frontend [9], aber ein einfaches Hallo-Welt mit zeitgemäßem Tooling ist inzwischen leider ein ziemlicher Aufwand geworden.
Und hier schließt sich dann der Kreis zu dem, was ich vorhin geschrieben habe: Ja, ich bin kein allzu großer Freund von Deno und Bun, aber beide Projekte bringen die Developer-Experience für JavaScript auf einen Stand, der dem Jahr 2024 angemessen ist. Node.js hingegen hinkt nicht nur ein paar Schritte, sondern ganze Kilometer hinterher, und es passiert schlichtweg zu wenig. Deno und Bun zeigen, wie es laufen könnte: TypeScript ist integriert, ein Formatter ist integriert, ein Linter ist integriert, ein Compiler, der einfach zu benutzen ist und gut funktioniert, ist integriert, ebenso die Installation als Single-Binary und so weiter.
Das alles nützt jedoch nichts, wenn man nicht auf Deno oder Bun wechseln, sondern beim Platzhirsch bleiben möchte. Ich habe nun mehrere Jahre darauf gewartet, dass bei Node.js etwas Wesentliches in dieser Richtung passiert. Und es gibt zwar erste Schritte, zum Beispiel mit dem inzwischen integrierten Test-Runner, aber das ist im Vergleich so wenig, dass ich mich langsam frage, ob diese Richtung überhaupt noch weiterverfolgt wird.
Hinzu kam dann bei uns im Unternehmen [10] noch die Anforderung, Software nicht im Quellcode auszuliefern, sondern als Binärpakete. Das ist einer der Gründe, warum wir bei Go gelandet sind: Dort gibt es einen echten Compiler, der Binärcode erzeugen kann. Darüber hinaus hat Go noch einiges mehr zu bieten, das uns überzeugt hat – wie wir auch ausführlich dokumentiert haben [11]. Und: Go bietet all das von Haus aus. Zudem ist die Sprache sehr viel einfacher und klarer gehalten, es gibt nicht zig verschiedene Konzepte für asynchronen Code, es gibt auch sonst nicht zig verschiedene Wege für sonst etwas, sondern Go ist im Vergleich zu JavaScript extrem geradlinig.
Und damit landen wir genau wieder bei "make simple things simple, and complex things possible". Dieses Kriterium erfüllt Go für mich heute in viel stärkerem Maße als Node, und deswegen tue ich mir inzwischen mit Node so schwer. Natürlich weiß ich nicht, ob das vielleicht in weiteren zehn Jahren nicht auch wieder anders aussehen wird. Das muss ich einfach abwarten. Aber das ist zumindest meine Erklärung dafür, warum ich mich nach einer Phase der großen Begeisterung inzwischen nicht mehr so richtig für Node (und davor auch für C# und .NET) erwärmen kann. Man könnte sagen: Wir haben uns auseinandergelebt.
URL dieses Artikels:
https://www.heise.de/-9708771
Links in diesem Artikel:
[1] https://nodejs.org/en/blog/announcements/v22-release-announce
[2] https://deno.com/
[3] https://bun.sh/
[4] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[5] https://www.youtube.com/watch?v=W0x6CUAYX54
[6] https://www.youtube.com/watch?v=bbwbCrjLobc
[7] https://www.youtube.com/watch?v=WLklm8JQbjo
[8] https://www.youtube.com/watch?v=zuQRJ1dZ3RI
[9] https://www.heise.de/blog/Vanilla-Web-Der-Frontend-Trend-2024-9611002.html
[10] https://www.thenativeweb.io/
[11] https://www.youtube.com/watch?v=wc5adu6396A
[12] mailto:map@ix.de
Copyright © 2024 Heise Medien
(Bild: dpa, Oliver Berg)
The end for another network specialist from Germany: Bintec Elmeg fails with its own restructuring.
No future for Bintec Elmeg: Shortly after the takeover of Gigaset by VTech Holdings Limited, the restructuring of the next German telecommunications and network specialist has now failed.
The Nuremberg-based subsidiary of the Spanish company Teldat had filed for insolvency proceedings under its responsibility in May 2023. The Nuremberg Local Court opened these proceedings on August 4th 2023. Last year, Bintec Elmeg was still confident that a solution could be found.
In a LinkedIn post by the company, which is no longer available, the restructuring was declared a failure. Current orders are still to be processed and production will continue until the end of May 2024.
Bintec Elmeg was well established in the SMB market in Germany with its versatile but not always easy-to-parameterize routers and telecommunications systems. This also applies to OEM products from Deutsche Telekom, such as the Standard, Smart and Premium digitalization boxes, which were marketed to many small companies as part of the migration to IP-based telephone services. The motto here is "search for alternatives in the short term". Bintec Elmeg also marketed some DECT telephones and IP DECT bases from Gigaset, as well as IP telephones from Gigaset as an OEM.
Updates will probably only be available for a short time. For many small and medium-sized business customers who are looking for a German manufacturer, the path should now point in the direction of Würselen to Lancom Systems.
URL dieses Artikels:
https://www.heise.de/-9706985
Links in diesem Artikel:
[1] https://www.heise.de/ix/
[2] mailto:emw@heise.de
Copyright © 2024 Heise Medien
(Bild: dpa, Oliver Berg)
Aus für einen weiteren Netzwerkspezialisten aus Deutschland: Die Bintec Elmeg scheitert mit der eigenen Sanierung.
Keine Zukunft für die Bintec Elmeg: Kurz nach der Übernahme von Gigaset durch die VTech Holdings Limited scheitert nun die Sanierung des nächsten deutschen Telekommunikations- und Netzwerkspezialisten.
Das in Nürnberg ansässige Tochterunternehmen der spanischen Teldat hatte im Mai 2023 einen Antrag auf ein Insolvenzverfahren in Eigenverantwortung gestellt. Das Amtsgericht Nürnberg hatte dieses am 04.08.2023 eröffnet. Vergangenes Jahr war man bei Bintec Elmeg noch zuversichtlich, eine Lösung zu finden.
In einem inzwischen nicht mehr aufrufbaren LinkedIn-Post des Unternehmens erklärte man die Sanierung für gescheitert. Laufende Aufträge sollen noch abgewickelt werden und die Produktion noch bis Ende Mai 2024 laufen.
Im SMB-Markt war Bintec Elmeg mit seinen vielfältig einsetzbaren, aber nicht immer einfach zu parametrisierenden Routern und Telekommunikationsanlagen in Deutschland durchaus verbreitet. So auch als OEM-Produkt der Deutschen Telekom, wie der Digitalisierungsbox Standard, Smart und Premium, die vielen Kleinunternehmen im Rahmen der Migration zu IP-basierenden Telefondiensten vermarktet wurden. Hier heißt es "kurzfristig nach Alternativen Ausschau halten". Bintec Elmeg vermarktete wiederum auch einige DECT-Telefone und IP-DECT-Basen von Gigaset, sowie IP-Telefone von Gigaset als OEM.
Updates werden wohl nur noch für kurze Zeit bereitstehen. Für viele kleine und mittlere Geschäftskunden, die auf der Suche nach einem deutschen Hersteller sind, dürfte der Weg nun in Richtung Würselen zu Lancom Systems zeigen.
URL dieses Artikels:
https://www.heise.de/-9706925
Links in diesem Artikel:
[1] https://www.heise.de/ix/
[2] mailto:fo@heise.de
Copyright © 2024 Heise Medien
(Bild: Tero Vesalainen/Shutterstock.com)
Die zusätzlichen Code-Analyzer bieten Verbesserungsvorschläge bei der Verwendung der .NET-Klassenbibliothek.
.NET 8.0 bietet neue Code-Analyzer, die den Entwicklerinnen und Entwicklern Verbesserungsvorschläge beim Verwenden der .NET-Klassenbibliothek machen.
Microsoft empfiehlt über die Code-Analyzer folgende Änderungen beim Umgang mit Zeichenketten und Objektmengen:
Length und Count statt Any() [1]StartsWith() statt IndexOf() == 0 [2]Equals() statt Case-Insensitive-Vergleichen [3] mit ToLower()/ToUpper()
(Bild: Screenshot (Holger Schwichtenberg))
(Bild: Screenshot (Holger Schwichtenberg))
(Bild: Screenshot (Holger Schwichtenberg))
URL dieses Artikels:
https://www.heise.de/-9706875
Links in diesem Artikel:
[1] https://github.com/dotnet/runtime/issues/75933
[2] https://github.com/dotnet/runtime/issues/78608
[3] https://github.com/dotnet/runtime/issues/78606
[4] mailto:rme@ix.de
Copyright © 2024 Heise Medien
Ein Techniker verbindet Glasfasern mit einem sogenannten "Splicer".
(Bild: Noiz Stocker/Shutterstock.com)
Das Digitalministerium spricht bei seinem neuen Aufruf für die Gigabitförderung von "Optimierungen". Die Branche sieht den Ausbau indes gelähmt.
Das Bundesministerium für Digitales und Verkehr (BMDV) hat eine neue Förderrunde eingeläutet, um den bis 2030 geplanten flächendeckenden Ausbau von Gigabitnetzen voranzutreiben [1]. 2024 sollen demnach weitere drei Milliarden Euro für den Ausbau von Glasfasernetzen in Länder und Kommunen fließen.
Mit der Gigabitförderung 2.0 [2] sollen staatliche Gelder "so zielgerichtet und unbürokratisch wie möglich" eingesetzt werden, "ohne private Investitionen auszubremsen", versicherte Digitalminister Volker Wissing (FDP). Die Branche winkt dankend ab: Es werde immer noch viel zu viel staatliches Geld in den Markt gepumpt, was den Ausbau lähme.
Dabei reagiert das BMDV mit angepassten Förderrichtlinien auch auf Kritik aus der Branche. Im Dialog sollen Kommunen und Netzbetreiber die aktuelle Versorgungslage vor Ort und die privaten Ausbauvorhaben ermitteln. Dazu komme ein "Punktekompass", der den Kommunen eine Prognose zur Erfolgsaussicht eines möglichen Förderantrags erleichtere.
Im Juni werde ferner ein Pilotprogramm gestartet, "das speziell auf Lückenschlüsse ausgerichtet ist". Das soll ergänzend zu einem bereits geplanten, laufenden oder abgeschlossenen privatwirtschaftlichen Ausbau dazu beitragen, dass auch besonders schwer erreichbare Haushalte mit angeschlossen werden. Die Gesamtprojektkosten dürfen dabei 500.000 Euro nicht übersteigen.
Der Wirtschaft reichen die Änderungen [3] nicht aus. Der Tenor ihrer Kritik: Wissing pumpe unnötige Milliarden in ein bürokratisches Förderregime [4], was den Ausbau immer mehr lähme.
Das BMDV verfehle sein selbst gestecktes Ziel, die Anzahl der Förderanträge deutlich zu senken, moniert der Bundesverband Breitbandkommunikation (Breko). "Wir erleben hier gerade ein Déjà-vu: Auf Basis der neuen Regelung werden erneut tausende aufwändige Förderanträge gestellt, die der Bund ablehnen muss." Es fehlten weiter verbindliche Vorgaben, um nur erfolgversprechende Projekte mit Steuergeld zu unterstützen.
Mit den drei Milliarden Euro allein in diesem Jahr werde "immer noch viel zu viel staatliches Geld in den Markt gepumpt". Eine langfristig angelegte, zielgerichtete Förderpolitik mit maximal einer Milliarde Euro pro Jahr würde den Glasfaserausbau insgesamt schneller voranbringen und den Bundeshaushalt entlasten.
Punktekompass und Branchendialog bleiben "mit Rücksicht auf Länder und Kommunen weiterhin unverbindlich", widerspricht der Branchenverband VATM dem Ministerium. Viel zu viele Förderverfahren könnten weiterhin auch dort ausgelöst werden, "wo sie gar nicht erforderlich sind". Die seit Jahren kritisierte "Überförderung" habe schlicht zu einem "Ausbaustau" geführt.
URL dieses Artikels:
https://www.heise.de/-9706345
Links in diesem Artikel:
[1] https://www.heise.de/news/Glasfaser-fuer-alle-Bundesregierung-beschliesst-Gigabitstrategie-7178814.html
[2] https://www.heise.de/news/Gigabitausbau-Bund-will-Obergrenzen-fuer-Foerdermittel-pro-Bundesland-7549916.html
[3] https://bmdv.bund.de/DE/Themen/Digitales/Breitbandausbau/Breitbandfoerderung/breitbandfoerderung.html
[4] https://www.heise.de/news/Gigabitfoerderung-Wirtschaft-sieht-viele-Stellschrauben-nicht-richtig-gestellt-8555413.html
[5] mailto:vbr@heise.de
Copyright © 2024 Heise Medien
Open RAN mit Samsung-Hardware im Netz von O2.
(Bild: Telefónica Deutschland)
Telefónica Deutschland nimmt in Bayern einen Antennenstandort mit Open RAN in den Live-Betrieb – erstmals auch mit Technik von Samsung.
Telefónica Deutschland hat im Mobilfunknetz von O2 einen ersten Antennenstandort mit Open RAN und Technik von Samsung in Betrieb genommen. Für den südkoreanischen Ausrüster ist das sein Debüt in einem kommerziellen Netz in Deutschland, teilten die Unternehmen am Donnerstag mit. Die Antennen stehen im bayerischen Landsberg am Lech, weitere sollen in der Region folgen.
In Landsberg setzt Telefónica Deutschland auf ein virtualisiertes Funkzugangsnetz (vRAN) sowie Hardware und Antennen von Samsung. In Landsberg stellt die Technik LTE und 5G auf Frequenzen zwischen 700 Mhz und 3,6 GHz zur Verfügung. Seit Oktober 2023 testen die Partner die neue Technik, die nun live ins Netz gegangen ist. In den kommenden Monaten sollen sieben weitere Standorte in der Region folgen.
Im nächsten Schritt will O2 auch eine Netzwerk-Automatisierung von Samsung einführen. Mit der Software kann Telefónica die Lebenszyklen der Technik – von der Bereitstellung über den Betrieb bis hin zur Wartung – steuern. Zudem können damit tausende Mobilfunkstandorte parallel konfiguriert werden.
"Wir machen einen weiteren großen Schritt bei unserer Open-RAN-Entwicklung", sagte Mallik Rao, CTO von Telefónica Deutschland. "Open RAN ist ein Baustein, der uns dabei helfen kann, unser Netz stärker zu automatisieren, neue Updates schneller einzuspielen und Netzkomponenten flexibler einzusetzen."
Bei Open RAN kommen Anwendungen von verschiedenen Zulieferern und mehr Standard-Hardware zum Einsatz, Netzkomponenten werden in der Cloud virtualisiert. Open RAN verringert die Abhängigkeit eines Netzbetreibers von den klassischen Ausrüstern wie Ericsson und Nokia mit ihren geschlossenen Systemen und langfristigen Serviceverträgen. Auch im Hinblick auf Ersatz für den politisch in Ungnade gefallenen Marktführer Huawei ist Open RAN eine Option.
Alle großen Netzbetreiber testen Open RAN an einzelnen Standorten. Bei Telefónica Deutschland läuft parallel ein Test in Offenbach mit Technik von Ericsson [1]. Auch die Telekom hat ein paar Antennen im Live-Betrieb und will das in den nächsten Jahren ausbauen. Vodafone betreibt auch in Deutschland erste Tests und hatte zuletzt angekündigt, in Rumänien mit Open RAN in den Produktivbetrieb zu gehen.
Der Neuling unter den deutschen Netzbetreibern setzt für sein 5G-Netz vollständig auf Open RAN [2]. 1&1 baut sein Mobilfunknetz zusammen mit dem Rakuten-Konzern, der bereits ein Open-RAN-Netz in Japan betreibt. Bisher sind allerdings erst ein paar Standorte ausgebaut. Darüber hinaus versorgt 1&1 seine Kunden dank eines Roaming-Abkommens, das derzeit noch mit O2 besteht und im Sommer zu Vodafone wechselt.
Samsung spielt als Netzausrüster in den deutschen Mobilfunknetzen bisher keine Rolle, ist international aber alles andere als ein unbeschriebenes Blatt. "Samsung setzt mit seinen innovativen vRAN- und Open RAN-Fähigkeiten neue Maßstäbe für Spitzenleistungen in der Telekommunikationsbranche", erklärte Junehee Lee, Executive Vice President von Samsungs Netzwerksparte. Die Koreaner sehen in Open RAN auch eine Gelegenheit, den drei Platzhirschen Huawei, Ericsson und Nokia Marktanteile abzunehmen.
URL dieses Artikels:
https://www.heise.de/-9706093
Links in diesem Artikel:
[1] https://www.heise.de/news/5G-Netz-O2-funkt-in-Offenbach-demnaechst-mit-Open-RAN-9639296.html
[2] https://www.heise.de/news/5G-Netz-von-1-1-Unterwegs-im-ersten-Open-RAN-in-Deutschland-9655979.html
[3] mailto:vbr@heise.de
Copyright © 2024 Heise Medien
(Bild: Daniel AJ Sokolov)
All the major US mobile phone companies betrayed their customers and sold their location data for years. Now they have to pay a fine – for a few months.
T-Mobile USA, AT&T, Verizon and Sprint have sold the location data of their mobile customers without obtaining customer consent. The buyers of the data should do this. However, they resold access to the data and left it to their buyers to claim with a click of the mouse that they had obtained the required consents from those affected. Dozens of companies gained access and used automatic interfaces (API). Now the network operators are to pay a fine, but only for a fraction of the time.
The US regulatory authority FCC (Federal Communications Commission) published the corresponding penalty notices [1] on Monday. Officially, the location services were advertised for more mundane purposes, such as finding lost devices or tracking cell phone use in prisons. In reality, bounty hunters, secret services, private investigators, various companies and even police authorities have illegally monitored Americans. Since 2007, location tracking has only been permitted with the consent of the person concerned or with judicial authorization or in certain emergencies.
One sheriff was sentenced to six months in prison for this. He had always clicked that his searches were legal. He uploaded random documents, such as a car insurance policy or individual pages from a police manual, but not the necessary judicial authorizations because he would not have received them. Nobody checked his queries - and quite deliberately so. The LBS company from which the sheriff bought the surveillance access believes that it is the sheriff's own responsibility to check his compliance with the regulations.
T-Mobile is now to pay a fine of over 80 million US dollars, AT&T more than 57 million, Verizon just under 47 million and Sprint over twelve million dollars. In total, this amounts to around 196 million dollars. The penalized network operators will probably fight the fines in court.
The method of calculating the penalties is strange. The authority does not count the number of people affected, but the number of direct purchasers of the location data (so-called aggregators) and their customers (so-called location-based services, LBS). At T-Mobile, for example, this was 81.
The authority multiplied this figure by 2,500 US dollars per day on which the LBS companies had direct API access – but not for the entire period of the infringement because by law the authority may only impose penalties retroactively for one year from the date the proceedings were initiated. But it is also not using one year, but June 9, 2018, which is 30 days after a New York Times report [2] on the indictment of the aforementioned sheriff.
The FCC therefore only considers the conduct of network operators from 30 days after this report to be worthy of punishment. The network operators continued to sell their customers' location data for up to ten months after the newspaper report. In addition, there is a base amount of 40,000 dollars per LBS partner and a surcharge of 50 to 100 percent, depending on how reprehensible the network operator's behavior was according to the authorities after the New York Times report.
The FCC initiated the proceedings under US President Donald Trump, at the time also with the approval of the Republican majority in the FCC. The Democrats now have a 3:2 majority there, and now the Republicans are suddenly against the penalties. One of them puts forward the obscure theory that the sale of location data is completely legal, except when the user is making a phone call. And another authority should have conducted the proceedings in the first place. The other Republican in the FCC believes that there was only a single violation of the law per network operator, and that the calculation by days and purchasing companies is inadmissible. The authority should not have imposed any penalties at all and instead have the network operators promise to be good in the future.
It is true that the network operators state that they have now stopped selling the location data. However, this does not mean that the LBS providers have become unemployed. Today, location data is secretly harvested from all kinds of smartphone apps [3] and sold, often to authorities that are not allowed to collect such data themselves, such as the NSA (National Security Agency). To a lesser extent, Wi-Fi hotspots, Bluetooth beacons and IMSI catchers are used to collect location data from cell phones and other devices.
Fun fact: The US intelligence agency NSA itself has been warning for at least four years about the danger of location monitoring of mobile phone users for national security. Nevertheless, the USA still lacks a comprehensive data protection law.
URL dieses Artikels:
https://www.heise.de/-9703112
Links in diesem Artikel:
[1] https://www.fcc.gov/document/fcc-fines-largest-wireless-carriers-sharing-location-data
[2] https://www.nytimes.com/2018/05/10/technology/cellphone-tracking-law-enforcement.html
[3] https://www.heise.de/news/Massenueberwachung-zum-Sparpreis-US-Polizei-kann-Bewegungsprofile-analysieren-7251554.html?from-en=1
[4] https://www.fcc.gov/document/fcc-fines-largest-wireless-carriers-sharing-location-data
[5] mailto:ds@heise.de
Copyright © 2024 Heise Medien