FreshRSS

🔒
✇ iX news ff.org

heise-Angebot: Continuous Lifecycle London: Programm ist online

Von heise online — 08. Dezember 2017 um 09:13

zurück zum Artikel

Continuous Lifecycle London: Programm ist online

Die englischssprachige Ausgabe der Continuous Lifecycle findet 2018 zum dritten Mal statt. Vom 15. bis 18. Mai 2018 können Interessierte Einblick in die Anforderungen von Continuous Delivery erlangen und von den Erfahrungen der Sprecher profitieren.

Die englischsprachige Continuous Lifecycle findet vom 15. bis 18. Mai zum dritten Mal in London statt. Das Programm ist online verfügbar[1] und dreht sich hauptsächlich um Continuous Delivery, Continuous Integration, DevOps und Container. Austragungsort der Konferenz für Softwareentwickler und Administratoren ist wie im vergangenen Jahr auch das QEII Centre in London. Bis Ende Februar können Besucher noch von vergünstigten Frühbuchertickets profitieren[2].

Im Kern des Programms stehen in diesem Jahr vor allem Lektionen, die die Sprecher in ihrer bisherigen Erfahrung mit Continuous Delivery gesammelt haben.Teilnehmer der Konferenz erfahren beispielsweise, was der Einsatz von Microservices in einem Fin-Tech-Unternehmen bedeutet, wie die Financial Times A/B-Tests durchführt und wie man allgemein mit den Schwierigkeiten einer kontinuierlichen Entwicklung mit immer kürzeren Releasezyklen umgeht. Andere Themen sind ganz allgemein auch die Cloud, Container, Kubernetes, Microservices und Sicherheitsfragen.

Mit Linda Rising[3] und Alexis Richardson[4] konnte die Konferenz auch in diesem Jahr wieder spannende Keynote-Sprecher gewinnen. Die ersten Workshops zu Themen wie Continuous Delivery[5], Microservices[6] und Influence Strategies for Practicioners (Linda Rising)[7] sind ebenfalls bereits buchbar.


URL dieses Artikels:
http://www.heise.de/-3913740

Links in diesem Artikel:
[1] https://continuouslifecycle.london/agenda-and-speakers/conference-sessions/
[2] https://continuouslifecycle.london/
[3] https://continuouslifecycle.london/speakers/linda-rising/
[4] https://continuouslifecycle.london/speakers/alexis-richardson-ceo-of-weaveworks-and-toc-chair-for-cncf/
[5] https://continuouslifecycle.london/sessions/workshop-continuous-delivery-theory-technology-and-practice/
[6] https://continuouslifecycle.london/sessions/microservice-alternatives-rest-kubernetes-ui-integration-and-asynchronous-integration/
[7] https://continuouslifecycle.london/sessions/workshop-influence-strategies-for-practitioners/
[8] mailto:bbo@ix.de

Copyright © 2017 Heise Medien

Let's block ads! (Why?)

✇ iX news ff.org

Qt 5.10 erweitert die Steuerelemente und setzt auf Vulkan

Von heise online — 07. Dezember 2017 um 17:04

zurück zum Artikel

Qt 5.10 erweitert die Steuerelemente und setzt auf Vulkan

Das aktuelle Qt-Release ist das erste, das mit Vulkan zusammenarbeitet. Außerdem lassen sich Qt Quick Controls 2 individuell mit grafischen Vorlagen gestalten, und Qt Quick lernt Multi-Touch-Gesten.

Nach einer knapp zweimonatigen Betaphase hat das Qt-Team nun Version 5.10 der C++ Klassenbibliothek veröffentlicht. Zu den Neuerungen gehören einige Erweiterungen der Qt Quick Controls 2, die nun eine einfache Möglichkeit bieten, Grafiken direkt als Steuerelemente darzustellen. Qt Quick bringt ein Plug-in zum Einfügen beliebiger Formen und Klassen zum Behandeln von Mulit-Touch-Gesten. Nicht zuletzt hat Qt 5.10 nun sogenannte Vulkan Enablers, die eine Schnittstelle zum OpenGL-Nachfolger der Khronos Group an Bord.

Qt 5.10 bringt dazu einige Klassen, deren Namen mit QVulkan starten. Die Basis ist die Instanz QVulkanInstance. Sollte das Erstellen mit QVulkanInstance::create() fehlschlagen und false zurückliefern, bietet das System zur Laufzeit keine Vulkan-Schnittstelle. Die QVulkan-Klassen bieten einen plattformübergreifenden Zugang direkten zur Vulkan-API, sind aber explizit keine zusätzliche Abstraktionsschicht. Außerdem ist der Zugriff derzeit begrenzt: QWindows können mit den QWidget-basierten UIs in derselben Art kombiniert werden wie mit OpenGL-basierten Fenstern. Allerdings lassen sich einige Module noch nicht mit Vulkan-Rendering kombinieren, darunter Qt Quick, Qt 3D und Qt Canvas 3D.

Steuerelemente aus dem Grafikprogramm

Die Qt Quick Controls 2 bieten nun zwei neue Stiltypen: Imagine Style baut direkt auf Grafiken auf, und Fusion Style orientiert sich stilistisch an der Zielplattform. Für ersteren Stil automatisiert Qt die Integration der passenden Elemente durch entsprechende Dateinamen. Designer legen fest, wie sich die Elemente bei der Größenänderung verhalten und finden zu Qt 5.10 Asset-Vorlagen für Photoshop, Illustrator und Sketch. Außerdem enthalten die Qt Quick Controls 2 die neuen Elemente Action, ActionGroup und MenuBar.

Die Stile Imagine und Fusion für Qt Quick Controls 2.
Die Stile Imagine und Fusion für Qt Quick Controls 2.

Qt Quick bekommt in Version 5.10 der Klassenbibliothek ein Shapes-Plug-in, über das sich beliebige Formen in Szenen integrieren lassen. Außerdem verbessern die Qt Quick Pointer Handlers den Umgang mit Multi-Touch. Die meisten davon haben selbsterklärende Namen wie der PinchHandler, der DragHandler oder der TapHandler. Darüber hinaus gibt es einen MultiPointHandler, der als abstrakte Grundlage für das Behandeln von Multi-Touch-Events dient.

Auch Qt 3D bringt einige Neuerungen, die Qt wohl vor allem der Zusammenarbeit mit KDAB zu verdanken hat. Neben neuen Knotentypen gibt es nun die Möglichkeit, Inhalte aus Qt 3D in Qt Quick Scene einzubetten. Grundsätzlich hat das Qt-3D-Team derzeit aber weniger neue Features im Sinn und will sich stattdessen auf eine Verbesserung der Performance und eine Verringerung des Speicherbedarfs konzentrieren.

Embedded-Entwicklung

Einige Neuerungen sind vor allem im Embedded-Umfeld interessant. So hat die virtuelle Tastatur einige neue Sprachen inklusive Handschrifterkennung an Bord, unter anderem Arabisch, Chinesich, Japanisch und Koreanisch. Neue Layouts bringt Qt Virtual Keyboard 2.3 unter anderem für Hebräisch, Griechisch und Ungarisch. Außerdem lässt sich die Tastatur nun passend zum Nutzerinterface skalieren, und sie unterstützt beim Schreiben mit Wortvorschlägen und eine Vorschau für Zeichen und Alternativen dazu.

Das auf den Automatisierungssektor ausgerichtete Qt for Automation, das die Qt Company im August vorgestellt hatte[1], arbeitet auch mit Qt 5.10 zusammen, sodass sich nun unter anderem das im Internet der Dinge verbreitete MQTT-Protokoll verwenden lässt.

Des Qt Kern und frische Module

Auch im Kernpaket Qt Core gibt es einige nennenswerte Neuerungen. So ist die QStringView-Klasse ein Pendant zu std::string_view aus der Standardbibliothek. Zwar fehlen noch einige const-Funktionen, aber die will die Qt Company in Qt 5.11 nachreichen. Als weitere Ergänzungen enthält QtCore den Zufallszahlengenerator QRandomGenerator und einen KeyValueIterator.

Das Modul Qt Netwok Authorization, das Autorisierung über das Protokoll OAuth (Open Authorization) in Version 1 und 2 bietet, hat nun ebenso die Preview-Phase verlassen wie das Sprachsynthesemodul Qt Speech, das erstmals in Qt 5.8[2] in der Bibliothek enthalten war. Beide Module sind nun als vollwertige Pakete Bestandteil von Qt 5.10

Weitere Details lassen sich dem Blogbeitrag[3] entnehmen, der es nicht auslässt zunächst das frisch erschienene[4] Qt 3D Studio zu bewerben, das mit der eigentlichen Klassenbibliothek nur am Rande zu tun hat.


URL dieses Artikels:
http://www.heise.de/-3913336

Links in diesem Artikel:
[1] https://www.heise.de/meldung/Cross-Plattform-Entwicklung-Qt-adressiert-den-Automatisierungssektor-3799662.html
[2] https://www.heise.de/meldung/Qt-5-8-enthaelt-ein-Text-to-Speech-Modul-3603598.html
[3] http://blog.qt.io/blog/2017/12/07/qt-5-10-released/
[4] https://www.heise.de/meldung/Cross-Platform-Entwicklung-Qt-3D-Studio-1-0-erschienen-3905810.html
[5] mailto:rme@ct.de

Copyright © 2017 Heise Medien

Let's block ads! (Why?)

✇ iX news ff.org

Cyberkrimi: Neue SWIFT-Regeln gegen digitale Bankraubzüge

Von heise online — 07. Dezember 2017 um 14:10

Nach einem sensationellen Angriff mit 81 Millionen US-Dollar Beute hat die SWIFT neue Regeln für Finanzdienstleister erarbeitet. Ein Artikel der aktuellen iX geht auf die Hintergründe des CSP ein.

Ein spektakulärer Raubzug konnte nur noch durch manuelle Kontrollen verhindert werden, doch trotzdem erbeuteten Cyberkriminelle im Februar 2016 noch immer rund 81 Millionen US-Dollar. Glück im Unglück, denn wie André Clerc in der aktuellen iX 12/2017 [1] schreibt, hatten es die schweren Jungs auf über 950 Millionen US-Dollar vom Konto der Bangladesh Bank bei der Federal Reserve Bank of New York abgesehen.

Was eigentlich nach einem Remake des dritten Stirb Langsam für das digitale Zeitalter klingt, sollte im Laufe des Jahres immer wieder vorkommen. Kriminelle nutzten Schwächen der bankseitigen Komponenten aus, um gefälschte Zahlungsaufträge in das System der SWIFT einzuschleusen. Nach dem Einstieg in die IT eines Finanzinstituts folgte das Ergattern von Nutzerdaten eines Mitarbeiters; die gefälschten Aufträge erschienen dank eines manipulierten PDF-Programms wie echte.

Neues Customer Security Programme

Bei solchen Summen und einer eigentlich auf ihre Sicherheit peinlich bedachten Branche zauderte die SWIFT nicht lange: Die eigenen Systeme blieben zwar unangetastet – aber da die Angreifer einfach die schwächsten Glieder der Kette ausnutzen können, rief die SWIFT das für alle Inhaber eines BIC 8 geltende Customer Security Programme (CSP) ins Leben.

Konkret orientieren sich die Sicherheitskontrollen an internationalen Standards, doch viele Unternehmen dürften zur Umsetzung dennoch Zeit brauchen. Hierbei lohnt sich in jedem Fall, nicht nur wie gefordert die an das System der SWIFT angeschlossene Infrastruktur zu sichern, sondern die gesamte hauseigene IT auf einen Stand zu bringen.

Aber nicht nur Maßnahmen der internen IT stehen an, auch will die SWIFT sicherstellen, dass alle Unternehmen stärker für den Fall eines Angriffs planen, letztere erkennen können und vor allem Informationen zu Attacken austauschen. Interessierte und Betroffene finden im Artikel mehr Details zum CSP, dem Customer Security Controls Framework und dem anvisierten Zeitrahmen ihrer Umsetzung.

Siehe dazu auch:

  • Unbezahlbar: Neue SWIFT-Regeln für Finanzdienstleister [2], iX 12/2017, S. 104.


URL dieses Artikels:
https://www.heise.de/ix/meldung/Cyberkrimi-Neue-SWIFT-Regeln-gegen-digitale-Bankraubzuege-3911524.html

Links in diesem Artikel:
  [1] https://www.heise.de/ix/heft/Unbezahlbar-3892725.html
  [2] https://www.heise.de/ix/heft/Unbezahlbar-3892725.html
  [3] mailto:fo@heise.de

Let's block ads! (Why?)

✇ iX news ff.org

Angular 5.1 zusammen mit Angular Material 5.0.0 erschienen

Von heise online — 07. Dezember 2017 um 09:11

zurück zum Artikel

Angular 5.1 verbessert den Umgang mit UI-Komponenten

Als Grundlage für Angular Material dient Googles Material Design. Außer den 30 UI-Komponenten, die im Basisset enthalten sind, können Entwickler mit Angular CDK eigene Komponenten erstellen.

Das nun erschienene Webentwicklungs-Framework Angular 5.1 weist im Hauptpaket lediglich kleinere Neuerungen und Bugfixes auf. Spannender ist, dass das Team gleichzeitig nach zahlreichen Alpha- und Betaversionen sowie drei Release Candidates nun Angular Material und Angular Component Dev Kit (CDK) in Version 5.0.0 veröffentlicht hat. Damit halten UI-Komponenten, die auf der von Google entwickelten Designsprache Material Design[1] aufbauen, Einzug in das Framework für Webanwendungen. Außerdem arbeitet Angular nun mit TypeScript 2.5 zusammen. Die Macher empfehlen das Update aufgrund der hilfreichen neuen Funktionen, aber TypeScript 2.4 lässt sich weiterhin verwenden.

Angular Material[2] bietet 30 vorgefertigte UI-Komponenten aus den Kategorien[3] Formulare, Navigation, Layout, Buttons, Pop-up-Dialoge und Datentabellen. Angular CDK[4] bietet zahlreiche Bausteine, um individuelle Komponenten zu erstellen. So dient beispielsweise als Vorlage für eine Datentabelle mit dynamischen Spalten und Zugriff auf die DOM-Struktur (Document Object Model), die Entwickler über eigene Funktionen zum Sortieren oder vorgegebenen Seitenumbrüchen erweitern können. Außerdem bietet Angular CDK Vorlagen zum Steuern von Komponenten wie das -Paket, um auf Ereignisse zu reagieren.

Service Worker über die CLI

Auch das Command-line Interface (CLI) hat eine Überarbeitung bekommen: CLI 1.6 bietet Support für die in Angular 5 eingeführten Implementierung der Service Worker, also in JavaScript verfasste Proxys. Das Paket lässt sich mit Yarn über yarn add @angular/service-worker herunterladen und in der CLI mit ng set apps.D.serviceWorker=true aktivieren. Anschließend können Entwickler das ServiceWorkerModule in ihr Projekt importieren und dort registrieren.

Darüber hinaus haben die Macher die Steuerung von Angular Universal, welches das Rendern einer Angular-Anwendung auf dem Server ermöglicht, über das CLI verbessert. Über ng generate universal können Entwickler ihre Anwendung als Universal-Modul mit einem individuellen Namen, den sie in die spitzen Klammern statt "name" eintragen registrieren.

Weitere Neuerungen wie der Application-Shell-Support im CLI lassen sich dem Angular-Blog[5] entnehmen. Die komplette Liste der Änderungen findet sich im Changelog[6] auf GitHub.

Siehe dazu auf heise Developer:

  • Die Neuerungen in Angular 5[7]


URL dieses Artikels:
http://www.heise.de/-3911729

Links in diesem Artikel:
[1] https://material.io/
[2] https://material.angular.io/
[3] https://material.angular.io/components/categories
[4] https://material.angular.io/cdk/categories
[5] https://blog.angular.io/angular-5-1-more-now-available-27d372f5eb4e
[6] https://github.com/angular/angular/blob/master/CHANGELOG.md
[7] https://www.heise.de/developer/artikel/Die-Neuerungen-in-Angular-5-3891311.html
[8] mailto:rme@ct.de

Copyright © 2017 Heise Medien

Let's block ads! (Why?)

✇ iX news ff.org

Forschungsprojekt Auditor: Zertifizierung für die Datenschutz-Cloud

Von heise online — 06. Dezember 2017 um 14:06

Mit dem Projekt Auditor wollen Partner aus Forschung und Wirtschaft eine neue Zertifizierung für Cloud-Dienste entwickeln. Sie soll insbesondere den Vorgaben der 2018 in Kraft tretenden EU-DSGVO genügen.

Unter dem Namen Auditor [1] erblickt ein neues Projekt das Licht der Welt, das Cloud-Angebote EU-weit hinsichtlich des Datenschutzes standardisiert zertifizieren soll. An ihm sind zehn deutsche Unternehmen und Forschungseinrichtungen beteiligt, Die Professoren Alexander Roßnagel und Ali Sunyaev von der Universität Kassel leiten das Vorhaben.

Konkret handelt es sich um ein auf zwei Jahre ausgelegtes Förderprojekt, mit Mitteln des Bundesministeriums für Wirtschaft und Energie (BMWi). Als Ziel haben sich die Beteiligten gesetzt, dass Auditor alle relevanten Aspekte eines Cloud-Dienstes, darunter Zuständigkeiten, Transparenzpflichten, Haftung und Kontrollmechanismen, beachten soll. Basis stellt die am 25. Mai 2018 in Kraft tretende EU-DSGVO dar. Nach Auslaufen des Projekts soll Auditor nach einer Prüfung auf seine Praxistauglichkeit dem Markt zur Verfügung stehen.

Vergleichbarkeit von Cloud-Angeboten

Unternehmenskunden sollen von einer verbesserten Transparenz und Vergleichbarkeit der Cloud-Angebote profitieren. Hinzu kommt, dass sie so externe Dienste rechtssicher einsetzen können, da sie sich sicher sein können, dass die Anbieter durch technische und organisatorische Maßnahmen die Anforderungen an den Datenschutz garantieren.

Die Anbieter selbst sollen hingegen durch die Zertifizierung das Vertrauen potentieller Kunden erlangen. Entsprechend sind an dem Projekt mehrere Cloud-Provider wie ecsec oder Cloud&Heat Technologies, aber auch der Verband EuroCloud Deutschland_eco e.V. und der DIN-Normenausschuss Informationstechnik und Anwendungen (NIA), DIN e.V. beteiligt.

Ein Artikel in der iX 8/2017 [2] fasst die neuen Pflichten für Unternehmen zusammen, die die DSGVO und das neue Bundesdatenschutzgesetz ab Mai 2018 bringen:

  • Neues Bundesdatenschutzgesetz ergänzt EU-Grundverordnung [3], iX 8/2017, S. 90.


URL dieses Artikels:
https://www.heise.de/ix/meldung/Forschungsprojekt-Auditor-Zertifizierung-fuer-die-Datenschutz-Cloud-3911096.html

Links in diesem Artikel:
  [1] http://auditor-cert.de/
  [2] https://www.heise.de/select/ix/2017/8/9999980000002029
  [3] https://www.heise.de/ix/heft/Frisch-gestaerkt-3780463.html
  [4] mailto:fo@heise.de

Let's block ads! (Why?)

✇ iX news ff.org

IBM: POWER9-Server zu Weihnachten

Von heise online — 06. Dezember 2017 um 13:27

Könnte unterm Weihnachtsbaum liegen: IBMs POWER9-System AC922.

(Bild: IBM)

Pünktlich zu Weihnachten könnte IBMs erstes POWER9-System erhältlich sein. PCIe 4.0 und NVLink 2.0 bieten in dem auf Rechenleistung optimierten System hohe Bandbreite für Beschleunigerkarten.

Zum Jahresende hat IBM die allgemeine Verfügbarkeit der ersten POWER9-Systeme AC922 angekündigt. Geplant ist der 22. Dezember 2017 für die allgemeine Verfügbarkeit. Die Server besitzen zwei CPU-Sockel und können zusätzliche Beschleuniger über mehrere Schnittstellen anbinden.

IBM liefert die POWER9-Prozessoren mit jeweils 16 oder 20 Kernen bei 2,6 beziehungsweise 2,0 GHz. Es lässt sich bis zu 1 TByte RAM installieren. Zur Beschleunigung können zwei oder vier NVidia Tesla V100 GPUs per NVLink 2.0 angesprochen werden. Die NVLink-Schnittstelle trägt den Namenszusatz Next Generation. Ob es sich dabei um die von NVidia im September versprochene nächste Generation mit Cache-Kohärenz [1] handelt, geht aus den Datenblättern [2] nicht hervor.

Für Erweiterungen stehen zudem 4 PCIe-4.0-Plätze zur Verfügung, drei davon sind "CAPI enabled". Einen Großteil des Performancezuwachs im Vergleich zu älteren x86- sowie POWER8-Systemen machen diese schnelleren Schnittstellen aus, die Probleme von Spezialhardware lösen lassen. Gerade NVLink 2.0 bietet die 9,5-fache Datenübertragungsrate von PCIe 3.0. IBMs Benchmarks zum Trainieren von neuronalen Netzen [3] ergaben gegenüber den PCIe-3.0-Referenzsystemen eine Beschleunigung um den Faktor 3,8.

Storage findet in zwei Small-Form-Factor-Buchten Platz. Der integrierte SATA-Controller bietet kein RAID. Optional lassen sich die Server mit PCIe-3.0-Adaptern Connect-X für EDR-InfiniBand (100-GBit/s) und 100-Gigabit-Converged-Ethernet ausstatten, die Mellanox im Rahmen der OpenPOWER-Initiative beisteuert. Ganz im Geiste der Strategie Linux first [4] gibt es das AC922 erst nur mit Red Hat Enterprise Linux (RHEL) gegenwärtig in Version 7.4.

POWER9-Technik steckt auch in den HPC-Systemen Summit und Sierra [5], die IBM am Oak Ridge National Laboratory beziehungsweise am Lawrence Livermore National Laboratory (LLNL) im Rahmen des CORAL-Projekts (Collaboration of Oak Ridge, Argonne and Livermore) baut. Sie sollen die beiden Supercomputer Titan und Sequoia ablösen, die in der Supercomputing-TOP500 Platz fünf und sechs belegten. Die zwei Systeme sollen ihren Dienst noch 2018 aufnehmen.


URL dieses Artikels:
https://www.heise.de/ix/meldung/IBM-POWER9-Server-zu-Weihnachten-3910888.html

Links in diesem Artikel:
  [1] https://www.heise.de/meldung/OpenPOWER-Server-fuer-Big-Data-und-HPC-von-IBM-3315139.html
  [2] https://www-01.ibm.com/common/ssi/rep_ca/7/877/ENUSZG17-0147/ENUSZG17-0147.PDF
  [3] http://www-03.ibm.com/press/us/en/pressrelease/53452.wss#_ednref2
  [4] https://www.heise.de/ix/heft/Kompromisslos-offen-3807239.html
  [5] https://energy.gov/articles/department-energy-awards-425-million-next-generation-supercomputing-technologies
  [6] mailto:jab@ix.de

Let's block ads! (Why?)

✇ Developer-Blog - Continuous Architecture

Collective Code Ownership: Ein Anti-Pattern?

06. Dezember 2017 um 07:15

zurück zum Artikel

Gemeinsame Verantwortung für Code hört sich nach einer gute Idee an. Aber sie ignoriert wichtige Konzepte der Softwareentwicklung.

Collective Code Ownership stammt aus dem Extreme Programming (XP), einer frühen agilen Methode. Es bedeutet, dass alle Entwickler jedes Problem beheben müssen, das sie im Code finden. Gemeinsam die Verantwortung für ein System zu übernehmen, sorgt dafür, das Probleme beseitigt werden, statt sie einfach hinzunehmen. Moderne Ansätze für Projektarbeit setzten auf eigenverantwortliche Teams. Dafür ist bei Softwareentwicklung die Verantwortung für den Code sicherlich zentral.

Woher wissen die Entwickler, was verbessert werden muss und wie das geschehen soll? Im Buch "Extreme Programming Explained" von Kent Beck steht, dass nicht alle Entwickler Experten für jeden Codeteil sein können, aber sie müssen zumindest ein grundlegendes Verständnis für den gesamten Code haben.

Information Hiding

Wissen über den gesamten Code widerspricht dem Information Hiding, das schon in einem anderen Beitrag[1] eine Rolle gespielt hat. Information Hiding bedeutet, dass Nutzer eines Moduls nur die Schnittstelle kennen, aber nicht die Interna. Das erleichtert die Nutzung des Modul, weil Nutzer weniger über das Modul wissen muss. Das Modul ist auch einfacher änderbar. Änderungen sind ohne Beeinträchtigung der Nutzer des Moduls möglich, so lange die Schnittstelle unverändert bleibt.

Collective Code Ownership fordert aber mehr als nur Wissen über die Schnittstelle. Jeder muss die Interna aller Module zumindest oberflächlich verstehen. Welche Alternativen gibt es?

Alternativen

Für jedes Modul könnte ein Entwickler verantwortlich sein. Das hat entscheidende Nachteile. Wenn die zuständigen Entwickler Urlaub haben oder krank werden, wird es schwierig, das Modul zu ändern, weil nur sie das Modul verstehen.

Eine Lösung ist, dass mehrere Entwickler jedes Modul kennen, aber nicht alle Entwickler jedes Modul kennen. Die Organisation spielt dabei eine wichtige Rolle: Das Gesetz von Conway[2] besagt, dass die Softwarearchitektur den Kommunikationsbeziehungen unter den Entwicklern entspricht. Die These: Entwickler sind jeweils für ein oder mehrere Module zuständig und müssen miteinander reden, wenn sie Module anderer Entwickler nutzen wollen. Auch das widerspricht dem Collective Code Ownership, weil nicht jeder Entwickler jeden Code versteht oder gar ändern kann

Kommunikation innerhalb eines Teams ist einfacher. Sie arbeiten oft in denselben Räumlichkeiten und haben gemeinsame Meetings. Das erleichtert die Kommunikation. Bessere Kommunikation kann nach dem Gesetz von Conway Auswirkungen auf die Architektur haben. Wenn Entwickler aus einem Team den Code anderer Teammitglieder kennen, kann das ein Zeichen guter Zusammenarbeit im Team sein. Wenn die Entwickler die Module anderer Teams kennen müssen, dann ist dazu aufwendige Kommunikation wie während extra organisierter Meetings notwendig. Also sollte Collective Code Ownership auf Teams beschränkt sein und nicht die gesamte Organisation umfassen.

tl;dr

Collective Code Ownership bedeutet, Verantwortung für Code zu übernehmen und Code zu verbessern. Das ist ein gute Sache. Den gesamten Code zu verstehen, ist dank Modularisierung zum Glück nicht notwendig.


URL dieses Artikels:
http://www.heise.de/-3909449

Links in diesem Artikel:
[1] https://www.heise.de/developer/artikel/Meine-Datenbank-gehoert-mir-3608372.html
[2] http://www.melconway.com/Home/Conways_Law.html

Copyright © 2017 Heise Medien

Let's block ads! (Why?)

✇ iX news ff.org

Always Connected PC: Notebooks und Tablets mit Gigabit-LTE von Asus und HP

Von heise online — 05. Dezember 2017 um 20:31

zurück zum Artikel

heise online
Always Connected PC HP Envy x2

Always Connected PC HP Envy x2

(Bild: Microsoft)

Die ersten Windows-10-Mobilrechner mit dem 64-Bit-ARM-SoC Qualcomm Snapdragon 835 sollen noch vor Silvester erscheinen

Maui auf Hawaii haben sich Microsoft und Qualcomm als Schauplatz des Snapdragon Tech Summit ausgesucht: Hier fiel heute der offizielle Startschuss für die seit einem Jahr angekündigten "Always Connected PCs[1]" mit Windows 10 auf ARM64-SoCs. Zunächst geht es um genau ein System on Chip, nämlich den Qualcomm Snapdragon 835 aus der 10-Nanometer-Fertigung. Die Firmen Asus (NovaGo) und HP (Envy x2) stellen damit bestückte Mobilrechner vor, denen Microsoft grundlegend neue Eigenschaften zuspricht.

Der Always Connected PC soll die Nische zwischen Smartphone und Notebook füllen: Dank LTE-Modem (und WLAN) stets mit dem Internet verbunden, blitzschnell betriebsbereit, tagelange Akkulaufzeit – Microsoft verspricht 22 Stunden und eine Woche Bereitschaft –, schlank und leicht und trotzdem für viele Windows-Programme geeignet.

Letzteres ist möglich, weil Microsoft und Qualcomm einen Pferdefuß der glücklosen Windows-RT-Tablets[2] von vor vier Jahren beseitigen: Dank einer x86-Emulationsschicht[3] laufen auf den Always Connected PCs auch 32-Bit-Windows-Programme. Zwar ist dabei keine hohe Geschwindigkeit zu erwarten[4] – aber das ist für Office-Software oder spezielle Business-Anwendungen oft weniger entscheidend, als dass sie überhaupt laufen.

Touch, Pen, Ink, Hello

Always Connected PCs gibt es als Tablet mit anflanschbarer Tastatur wie das HP Enxy x2 oder als Notebook mit 360-Grad-Scharnier wie das Asus NovaGo. Was der dritte im Bunde, Lenovo, plant, ist noch unbekannt. Jedenfalls haben die ersten zwei Geräte Touchscreens. Das Envy x2 lässt sich auch per Stift bedienen – unklar, ob der extra kostet.

Um den Komfort zu steigern, lassen sich Always On PCs via Windows Hello per Gesichtserkennung entsperren.

Windows 10 S, Pro optional

Die ersten Always Connected PCs sollen noch vor dem Jahresende zu haben sein, jedenfalls in den USA. Bei den Preisen verweist Microsoft an die jeweiligen Hersteller. Man munkelt von mehr als 500 US-Dollar, während Android-Tablets mit LTE und 10-Zoll-Display ab 200 Euro zu haben sind.

Auf einem Always Connected PC ist Windows 10 S[5] vorinstalliert, bei dem sich nur Apps aus dem Windows Store installieren lassen. Besitzer eines Always Connected PC können aber kostenlos auf Windows 10 Pro umsteigen und dann beliebige Apps installieren. 2018 sollen Always Connected PCs auch als Business-Geräte durchstarten. Mit Windows 10 Pro lassen sie sich in die IT-Administration integrieren und immer mehr Firmen verlagern Applikationen in die Cloud.

Gigabit-LTE, eSIM und SIM-Karte

Microsoft Always Connected PC
Microsoft Always Connected PC (Bild: Microsoft)

Im Vergleich zu verfügbaren x86-Prozessoren wie Intels Atom hat der Qualcomm Snapdragon 835[6] den großen Vorteil eines eingebauten LTE-X16-(4G-)Modems[7] für Download-Raten bis zu 1 GBit/s. Das ist schön, nutzt hierzulande aber noch wenig, weil erst wenige Basisstationen solche Datenraten liefern. Und die erste LTE-BTS mit 1 GBit/s in Düsseldorf nutzt zudem LTE Cat 18[8]: In diesem Netz schafft das Cat-16-Modem des MSM8998 wohl höchstens 500 MBit/s.

Microsoft will mit Mobilfunk-Providern kooperieren, um günstige Tarife bereitzustellen. Außer einer integrierten eSIM sollen die neuen Always On PCs auch SIM-Kartenleser haben.

Intel-/Google-Konkurrenz

Die Always Connected PCs mit ARM64 sind auch ein Angriff auf Intels x86-Chips. Intel hat den x86-Emulator auch bereits indirekt kritisiert[9], kann aber möglicherweise wegen alter Rechte von HP[10] nichts dagegen tun.

Auf der Computex behauptete Intel, dass es solche Geräte längst gibt[11], etwa das Samsung Galaxy Book[12] – allerdings wohl nicht zu Preisen unter 1000 Euro. Auf der Computex hatte Asus ein ähnliches Gerät mit Core-i-CPU und LTE-Modem unter dem Codenamen Kukuna vorgeführt. Doch vermutlich sollten darin die angekündigten 10-nm-Cannon-Lake-Chips[13] stecken, die Intel bisher offensichtlich nicht ausliefern kann. Dabei hätte Intel mit dem XMM 7560[14] wohl mittlerweile auch einen Gigabit-LTE-Modemchip im Angebot.

Wie stark die Always Connected PCs gegen Googles Chromebooks punkten, ist fraglich: Mit Preisen jenseits von 500 Euro eher nicht. Chromebooks machen Microsoft vor allem im US-amerikanischen Bildungsmarkt (K-12 Education) das Leben schwer.

Snapdragon 845, Microsoft Surface

Der Snapdragon 835 alias MSM8998 kommt bereits in vielen Android-Smartphones wie dem Google Pixel 2 XL[15] und dem Samsung Galaxy S8[16] und Note 8[17] zum Einsatz. Qualcomm arbeitet aber bereits am Snapdragon 845. Microsoft selbst wollte Fragen zu einem Surface mit Snapdragon 835 nicht beantworten.


URL dieses Artikels:
http://www.heise.de/-3908868

Links in diesem Artikel:
[1] https://www.heise.de/meldung/Windows-10-Tablets-mit-LTE-eSIM-Atom-oder-ARM-sind-Always-Connected-PCs-3729763.html
[2] https://www.heise.de/meldung/Samsung-stellt-Windows-RT-Tablet-ein-1816532.html
[3] https://www.heise.de/meldung/Microsoft-zeigt-Windows-10-auf-ARM64-3713675.html
[4] https://www.heise.de/meldung/Always-Connected-PCs-mit-Snapdragon-835-und-Windows-10-ruecken-naeher-3891599.html
[5] https://www.heise.de/meldung/Das-neue-Windows-10-S-viel-Pro-etwas-RT-etwas-festgenageltes-Bing-3701789.html
[6] https://www.qualcomm.com/products/snapdragon/processors/835
[7] https://www.heise.de/meldung/Qualcomm-Mobilprozessor-Snapdragon-835-GBit-LTE-acht-Kerne-10-nm-Fertigung-3587314.html
[8] https://www.heise.de/ct/ausgabe/2017-24-Gigabit-LTE-3882122.html
[9] https://www.heise.de/meldung/Intel-warnt-Qualcomm-und-Microsoft-wegen-x86-Emulator-3739824.html
[10] https://www.heise.de/ct/ausgabe/2017-22-Von-Stellungen-und-Stellschrauben-3855024.html
[11] https://newsroom.intel.com/news/always-connected-pcs-computex-increasingly-relevant-pc-todays-connected-world/
[12] https://www.heise.de/preisvergleich/samsung-galaxy-book-12-w728n-lte-256gb-sm-w728nzka-a1621450.html?hocid=newsticker&wt_mc=intern.newsticker.textlink-pvg.pvg_a1621450
[13] https://www.heise.de/meldung/Intel-zeigt-Tablet-Hybrid-mit-10-Nanometer-CPU-und-VR-Brillen-3589108.html
[14] https://www.heise.de/meldung/Gigabit-LTE-Qualcomm-und-Intel-satteln-drauf-3632085.html
[15] https://www.heise.de/preisvergleich/google-pixel-2-xl-64gb-schwarz-a1704884.html?hocid=newsticker&wt_mc=intern.newsticker.textlink-pvg.pvg_a1704884
[16] https://www.heise.de/preisvergleich/samsung-galaxy-s8-g950f-schwarz-a1601178.html?hocid=newsticker&wt_mc=intern.newsticker.textlink-pvg.pvg_a1601178
[17] https://www.heise.de/preisvergleich/samsung-galaxy-note-8-n950f-schwarz-a1677742.html?hocid=newsticker&wt_mc=intern.newsticker.textlink-pvg.pvg_a1677742
[18] mailto:ciw@ct.de

Copyright © 2017 Heise Medien

Let's block ads! (Why?)

✇ iX news ff.org

Pivotal Cloud Foundry 2.0 setzt auf Serverless Computing und Kubernetes

Von heise online — 05. Dezember 2017 um 18:00

zurück zum Artikel

Pivotal Cloud Foundry bekommt Serverless Computing

Für die zweite Hauptversion der Platform as a Service hält der Bereich Serverless Computing Einzug in die Plattform. Außerdem hat das Team in Zusammenarbeit mit Google und VMware Kubernetes integriert.

Pivotal hat auf der Konferenz SpringOne Platform[1], die vom 4. bis 7. Dezember in San Francisco stattfindet, die Version 2.0 von Pivotal Cloud Foundry angekündigt. Die ursprünglich von VMware entwickelte Platform as a Service (PaaS) bekommt damit einige Neuerungen. Pivotal aktualisiert nicht nur die Laufzeitumgebung für Applikationen, sondern führt zusätzliche Dienste für Serverless Computing und die Orchestrierung von Containern ein.

Die erweiterten Dienste der Cloud Foundry
Die erweiterten Dienste der Cloud Foundry (Bild: Pivotal )

Mit Pivotal Function Service betritt die Plattform den Bereich des Serverless Computing. Der Dienst führt ähnlich wie AWS Lambda, Microsoft Azure Functions oder das vor kurzem von Oracle eingeführte Fn einfache Funktionen als Reaktion auf Ereignisse aus. Noch befindet sich das System in einem frühen Stadium und soll laut der Ankündigung innerhalb der nächsten sechs Monate verfügbar sein.

Der Dienst entsteht als Open-Source-Projekt, und konkrete technische Details bezüglich der Programmiersprachen werden wohl noch folgen. Entwickler erstellen mit Pivotal Function Service Funktionen, die das System beispielsweise als Reaktion auf Ereignisse aus Systemen wie RabbitMQ oder Apache Kafka ausführt.

Container-Hafen mit VMware und Google

Der Pivotal Container Service (PKS) ist in Zusammenarbeit mit VMware und Google entstanden und verwaltet den Einsatz von Kubernetes. Er soll den hybriden Einsatz des Orchestrierungswerkzeugs zwischen dem Rechenzentrum und der Public Cloud vereinfachen. Die Kooperation soll eine dauerhafte Kompatibilität zur Google Container Engine (GKE) gewährleisten. Außerdem können Entwickler die Dienste von Googles Cloud-Plattform beispielsweise im Bereich Machine Learning integrieren.

Pivotal Container Service ist auf Hochverfügbarkeit ausgelegt und bietet Methoden für Health Checks, Skalierung und Selbstheilung. Entwickler können auf die vollständige Open-Source-Kubernetes-API ohne proprietäre Erweiterungen zugreifen. Zur Netzwerkvirtualisierung integriert der Dienst VMware NSX-T. PKS ist zunächst als Early-Access-Variante verfügbar.

Erweiterte Laufzeitumgebung und Markplatz

Die Laufzeitumgebung Pivotal Application Service haben die Macher mit Version 2.0 der PaaS weitgehend erneuert. Unter anderem lassen sich nun neben Linux-Containern auch solche mit Windows Server 2016 verwenden und Funktionen wie CPU-Autoskalierung laufen direkt für die darin ausgeführten .NET-Anwendungen. Neu ist zudem ein optionales Dashboard namens Healthwatch, das Einblick in die Performance der Plattform gewährt. Die Integration von NSX-T soll eine Brücke zwischen traditionellen und Cloud-Native-Anwendungen schlagen.

Der Pivotal Services Marketplace bietet Erweiterungen zum Einbinden externer Dienste von Anbietern wie GitHub, Splunk, New Relic, Apigee und IBM. Weitere Details lassen sich dem Pivotal-Blog[2] entnehmen.


URL dieses Artikels:
http://www.heise.de/-3908063

Links in diesem Artikel:
[1] https://springoneplatform.io/
[2] https://content.pivotal.io/blog
[3] mailto:rme@ct.de

Copyright © 2017 Heise Medien

Let's block ads! (Why?)

✇ iX news ff.org

Atlassian erweitert Continuous Delivery in Bitbucket Cloud

Von heise online — 05. Dezember 2017 um 17:00

zurück zum Artikel

Atlassian erweitert Continuous Delivery in Bitbucket Cloud

Die Deployment-Ansicht im Dashboard soll allen Beteiligten eine bessere Übersicht und mehr Kontrolle bei den Arbeitsabläufen vom Schreiben des Sourcecodes bis zur Veröffentlichung geben.

Atlassian hat mit Bitbucket Deployments die Integration des Continuous-Delivery-Prozesses ausgebaut, die das Unternehmen mit Bitbucket Pipelines im Oktober 2016 begonnen hatte[1]. Nutzer des Bitbucket-Cloud-Angebots erhalten damit das neue Deployments-Dashboard, das eine Übersicht darüber gibt, auf welchen Systemen welche Version der Software läuft.

Bitbucket kennt die drei Umgebungstypen Test, Staging und Produktion. Das Team sucht sich aus, welche Umgebungen es für das aktuelle Projekt benötigt. Das neue Dashboard zeigt im oberen Teil den jeweils letzten Deployment-Versuch für die drei Umgebungen an. Darunter listet es die komplette Deployment-Historie auf, inklusive des jeweils verantwortlichen Mitarbeiters. Über Filter lässt sich die Anzeige eingrenzen, um beispielsweise nachvollziehen zu können, welche Änderungen zu Problemen in bestimmten Umgebungen geführt haben.

Das neue Dashboard gibt eine Übersicht über die Deployments.
Das neue Dashboard gibt eine Übersicht über die Deployments. (Bild: Atlassian )

Einbindung in die Arbeitsabläufe

Die Konfiguration der Deployments erfolgt über die YAML-Dateien für die Pipelines. Bitbucket Cloud stellt von sich aus die Verbindung zu den Änderungen in der Versionsverwaltung zwischen zwei Verteilungsprozessen her. Darüber hinaus automatisiert das System auch die Einbindung der manuellen Entscheidungen in den Arbeitsablauf.

Die jeweils Verantwortlichen können Software, die auf einer Umgebung fehlerfrei läuft, für die nächste Stufe freischalten. Nach dem Klick auf einen Promotion-Button im Dashboard erhalten sie zunächst eine vollständige Liste der seit dem letzten Deployment erfolgten Commits und die Unterschiede zwischen den Dateien. Anhand der Informationen entscheiden sie über die Freigabe für die nächste Umgebung. Mittelfristig will Atlassian zudem noch Jira-Issues und Pull Requests in die Ansicht integrieren.

Zum Einbinden des Deployment-Prozesses in die vorhandenen Pipelines genügt laut Atlassian eine Codezeile. Weitere Details lassen sich dem Blogbeitrag[2] entnehmen. Die Neuerung ist ab sofort als Preview in Bitbucket Cloud verfügbar. Zusätzliche Kosten fallen nicht an.


URL dieses Artikels:
http://www.heise.de/-3907838

Links in diesem Artikel:
[1] https://www.heise.de/meldung/Bitbucket-Cloud-Git-LFS-und-Pipelines-verlassen-Betaphase-3347929.html
[2] https://blog.bitbucket.org/2017/12/05/introducing-bitbucket-deployments/
[3] mailto:rme@ct.de

Copyright © 2017 Heise Medien

Let's block ads! (Why?)

✇ iX news ff.org

Microsoft: IoT Central soll Einstieg ins Internet der Dinge erleichtern

Von heise online — 05. Dezember 2017 um 15:09

(Bild: Microsoft)

Um Unternehmen schneller an das Thema IoT heranzuführen, bietet Microsoft mit IoT Central eine Software aus der Cloud, die unkompliziert Geräte vernetzen, überwachen und steuern können soll. Die verwendeten Azure-Dienste bleiben im Hintergrund.

Mit IoT Central ergänzt Microsoft seine IoT-Dienste um eine Ebene, die in erster Linie einfacher sein soll als die vorhandenen Services. Das Unternehmen bezeichnet IoT Central als Software as a Service (SaaS). Das führt unter anderem mit sich, dass der Umgang mit IoT-Geräten in einem starreren Rahmen verläuft, als wenn man die Azure IoT Suite oder direkt die Azure-IoT-Infrastrukturdienste verwendet. Dafür soll IoT Central einen einfacheren Einstieg bieten.

Die Software verbindet sich mit vernetzten Geräten, bietet Masken für zeitabhängige Analysen und kann die Steuerung der Komponenten übernehmen. Mit Metriken lassen sich Regeln erstellen, die zum Beispiel eine Mail versenden, einen Webhook ansprechen, eine Azure Function ansprechen oder direkt an Salesforce/SAP melden, wenn ein bestimmtes Ereignis eintritt.

Geräte verwalten

Eigenschaften der Geräte (Model, Seriennummer, zuständiger Techniker, Standort, ...) müssen Anwender von Hand eingeben. Microsoft bietet dafür einige Templates an. Automatisches Provisionieren über Excel-Tabellen oder Komma-separierte Listen ist angedacht, derzeit allerdings noch nicht möglich.

Jedes Device sendet zudem Metriken, die sich für Analysen und Regeln verwenden lassen. Über Settings lassen sich Eigenschaften steuern, etwa Lüftergeschwindigkeiten. Zu Beginn sind neue Geräte auf Simulationsmodus gestellt, sie müssen sich erst an IoT Central anmelden - die Methoden dafür stellen die Azure IoT SDKs bereit.

IoT Central [1] ist ab sofort weltweit in einer Public Preview verfügbar. In einer kostenlosen Testphase können Kunden 30 Tage lang 10 Geräte über das Angebot verwalten. Das Probeangebot umfasst 100 MByte Datenverkehr. Später gibt es einen Sockelbetrag von 500 US-Dollar pro Monat. Dieser erlaubt bis zu 100 Geräte und 1000 MByte Traffic. Möchte man mehr Devices anbinden, kostet das jeweils 50 Cent monatlich und erhöht das verfügbare Datenvolumen um 10 MByte. Möchte man lediglich letzteres erhöhen, gibt es 1 GByte für 30 US-Dollar. Kunden, die später zu den tieferliegenden Diensten wie der IoT-Suite wechseln wollen, müssen sich noch etwas gedulden, bis der Prozess automatisiert zur Verfügung steht.


URL dieses Artikels:
https://www.heise.de/ix/meldung/Microsoft-IoT-Central-soll-Einstieg-ins-Internet-der-Dinge-erleichtern-3908647.html

Links in diesem Artikel:
  [1] https://www.microsoft.com/en-us/iot-central/
  [2] mailto:jab@ix.de

Let's block ads! (Why?)

✇ iX news ff.org

AMD Epyc ab sofort bei Microsoft Azure buchbar

Von heise online — 05. Dezember 2017 um 15:01

zurück zum Artikel

heise online
AMD-Epyc-Mainboard für Microsoft Project Olympus

AMD-Epyc-Mainboard für Microsoft Project Olympus

(Bild: Open Compute Project/OCP)

Microsoft setzt den AMD-Serverprozessor Epyc in den virtuellen Azure-Instanzen der "L Series" ein, die sich besonders für NoSQL-Datenbanken eignen.

Ab sofort können Microsoft-Kunden den AMD-Serverprozessor Epyc in der Azure-Cloud nutzen. Auf den neuen Project-Olympus-Servern mit je zwei Epyc 7551 mit 32 Kernen[1] laufen die "Storage-optimierten" virtuellen Maschinen der "L Series"[2], die Microsoft besonders für NoSQL-Datenbanken empfiehlt. Hier sind PCIe-NVMe-SSDs besonders leistungsfähig angebunden.

[Update:] Im Azure-Blog präzisiert Microsoft Azure Director of Compute Corey Sanders die verfügbaren Epyc-Instanzen[3]: L8s, L16s, L32s und L64s mit 8 bis 64 vCPUs, 64 bis 512 GByte RAM und 1 bis 8 NvMe-SSDs mit je 1,9 TByte.

Doch nicht nur Microsoft bringt den AMD Epyc jetzt in Fahrt, auch der bereits im November angekündigte[4] Rack-Server HPE ProLiant DL385 Gen10 mit zwei Epyc und bis zu 4 TByte RAM ist jetzt bei HPE bestellbar[5]. Die Preise beginnen bei rund 3400 Euro für eine Konfiguration mit einem einzelnen Octo-Core Epyc 7251 und 16 GByte RAM.

Für den maximalen Hauptspeicherausbau benötigt man bei Epyc-Servern DDR4-LRDIMMs mit je 128 GByte. Diese waren bisher vor allem als Zusatzkomponenten von den Server-Hersteller zu bekommen. Die Micron-Tocher Crucial verkauft aber seit kurzem das Modul CT128G4ZFE426S für knapp 4100 Euro[6]. Für 4 TByte RAM sind 32 dieser Octo-Rank-LRDIMMs nötig, die zusammen rund 131.000 Euro kosten.


URL dieses Artikels:
http://www.heise.de/-3908665

Links in diesem Artikel:
[1] https://www.heise.de/meldung/Serverprozessor-AMD-Naples-in-der-Microsoft-Cloud-3647855.html
[2] https://azure.microsoft.com/en-us/pricing/details/virtual-machines/series/
[3] https://azure.microsoft.com/en-us/blog/announcing-the-lv2-series-vms-powered-by-the-amd-epyc-processor/
[4] https://www.heise.de/meldung/Server-Performance-AMD-Epyc-vs-Xeon-SP-in-der-SPEC-CPU2017-3896842.html
[5] https://www.hpe.com/de/de/product-catalog/servers/servers/pip.models.hpe-proliant-dl385-gen10-server.1010268408.html
[6] http://www.crucial.de/deu/de/ct128g4zfe426s
[7] mailto:ciw@ct.de

Copyright © 2017 Heise Medien

Let's block ads! (Why?)

✇ iX news ff.org

Kata: Container so isoliert wie virtuelle Maschinen

Von heise online — 05. Dezember 2017 um 14:21

Dass Container nur eine begrenzte Isolierung ermöglichen, ließ einen Markt für Produkte entstehen, die entsprechende Funktionen auf Clusterebene hinzufügen. Kata geht das Problem an, indem es die Container-Runtime anpasst.

Kata Containers sollen die starke Isolation von virtuellen Maschinen (VM) mit dem geringen Overhead von Containern verbinden und sich in einem Kubernetes-Cluster verwenden lassen. Technisch handelt es sich dabei um minimale VMs mit einem reduzierten Userspace. Die Entwicklungsarbeit kommt hauptsächlich von Intel (Clear Containers [1]) und Hyper [2]. Als Input verstehen Kata Containers Docker-Images – intern greifen sie auf dessen Container-Runtime zurück. Intel hat wohl vorwiegend am Design von VM und Kernel gearbeitet, während Hyper Technik um die Einbindung in Kubernetes einbringt, insbesondere deren runV.

Mandantenfähiges Kubernetes

Durch das Kapseln einzelner Apps in virtuellen Maschinen sollen Kubernetes-Cluster mandantenfähig werden. Beim Abschicken eines Workloads geben Nutzer an, ob dieser "trusted" oder "untrusted" ist. Kubernetes kann dann das passende Backend für den Job wählen, also auch ein Mischbetrieb mit Kata und blankem Docker ist möglich. Der Memory-Overhead pro Container beträgt 10 MByte.

Das Konzept wirkt etwas wie ein Schritt zurück in Zeiten vor dem Container-Hype. Die Entwickler versprechen jedoch die entsprechend hohe Performance und Flexibilität. Dazu kommt die Orchestrierung mit Kubernetes. Das wird im Gegenzug um eine weitere Ebene zur Isolation erweitert.

Verwaltung und Steuerung des Projekts liegen bei der OpenStack Foundation, es ist unter Apache-2.0-Lizenz veröffentlicht. Allerdings ist es kein Teil der OpenStack-Infrastruktur und besitzt auch ein eigenes Branding, ist also unabhängiger. Vorgestellt werden die Kata Container [3] im Rahmen der KubeCon in Austin [4].


URL dieses Artikels:
https://www.heise.de/ix/meldung/Kata-Container-so-isoliert-wie-virtuelle-Maschinen-3909015.html

Links in diesem Artikel:
  [1] https://clearlinux.org/features/intel%C2%AE-clear-containers
  [2] https://hyper.sh/
  [3] https://katacontainers.io/
  [4] http://events.linuxfoundation.org/events/kubecon-and-cloudnativecon-north-america
  [5] mailto:jab@ix.de

Let's block ads! (Why?)

✇ iX news ff.org

TACNET 4.0: Industriekonsortium entwickelt System für echtzeitfähige Industrievernetzung

Von heise online — 04. Dezember 2017 um 17:59

zurück zum Artikel

heise online
TACNET 4.0: Industriekonsortium entwickelt System für echtzeitfähige Industrievernetzung

(Bild: oporkka/iStockphoto.com)

Im TACNET-Projekt wollen 14 Partner aus Industrie und Forschung ihre Kräfte bündeln, um unter anderem ein einheitliches System für die industrielle Echtzeitkommunikation auf Basis des kommenden 5G-Mobilfunks zu entwickeln.

14 deutsche Unternehmen und Organisationen haben sich im Projekt TACNET 4.0 zusammengeschlossen, um ein einheitliches System für die industrielle Kommunikation in Echtzeit zu entwickeln. Das Projekt wird vom Bundesministerium für Bildung und Forschung (BMBF) gefördert. Grundlage des Systems soll der ab 2020 erwartete Mobilfunk der fünften Generation werden (5G). Im Zentrum stehen Verfahren für die Digitalisierung von Produktion und Robotik.

Orientiert an den Bedürfnissen des Marktes, soll eine Basis für vielfältige industrielle Anwendungen entstehen. Koordiniert wird TACNET vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) und den Nokia Bell Labs.

Den Projektnamen leiten die Teilnehmer von der sehr geringen Latenz des zugrundeliegenden 5G-Netzes ab – diese seien so niedrig, dass sie die Signallaufzeiten von Nervenfasern unterbieten und daher an taktile Wahrnehmung denken lassen (Tastsinn). Daher könne man von einem „taktilen Internet“ sprechen. TACNET 4.0 verspricht Reaktionszeiten von unter einer Millisekunde. Für Menschen ist die Signallaufzeit nicht mehr als Verzögerung wahrnehmbar.

Ausgangspunkt des TACNET-Projekts ist die vernetzte Produktion (Industrie 4.0). Mit der gegenwärtigen Technik sei die "notwendige höchste Zuverlässigkeit und Kommunikation in Echtzeit" noch nicht durchgängig möglich (Ende-zu-Ende). Die Projektteilnehmer wollen daher die Konzepte und Algorithmen entwickeln und "Voraussetzungen für viele Industrie 4.0-Anwendungen schaffen". Dazu zählen die direkte Interaktion zwischen Mensch und Maschine oder die drahtlose Prozesssteuerung.

Minimale Latenz als Basis

Einer der wichtigsten Aspekte ist die lokale und standortübergreifende sichere Datenübertragung mit minimaler Verzögerung, um beispielsweise Maschinen fernsteuern zu können. Prof. Dr.-Ing. Hans Schotten meint, dass innovative 5G-Methoden "anspruchsvolle und bisher nicht realisierbare Szenarien in der Prozess- und Fertigungsautomatisierung" ermöglichen werden. Schotten ist Leiter des Forschungsbereichs Intelligente Netze am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) in Kaiserslautern.

Ein solches Szenario sei zum Beispiel die Fernsteuerung von mobilen Maschinen oder Robotern, die in gefährlichen Arbeitsumgebungen im Einsatz sind oder die Bedienung durch lokal nicht verfügbares Fachpersonal erfordern. Dazu werden im Projekt auch neue Ansätze, wie Big Data-Analytics, Edge-Cloud-unterstützte Echtzeitsteuerung und Ferndienste, untersucht.

Schotten koordiniert das Projekt zusammen mit Dr. Peter Rost von Nokia Bell Labs. Rost ergänzt: "Taktiles Internet ist wichtig für eine umfassende Vernetzung von Menschen und Dingen, da diese Technologie zur industriellen Wertschöpfung beiträgt und das Leben der Menschen im Alltag erleichtern wird. Niemand entwickelt die Anwendungsszenarien von morgen alleine. Es braucht eine übergreifende Zusammenarbeit unterschiedlicher Branchen. Wir freuen uns, dass wir zusammen mit den Partnern in TACNET4.0 die Entwicklung des taktilen Internets vorantreiben können.“

Offene Schnittstellen und Anpassungsfähigkeit

TACNET 4.0 soll aber auch künftige 5G-Netze und gängige sowie neuartige industrielle Kommunikationsnetze integrieren, um die unterschiedlichste industrielle Anwendungen zu unterstützen. Dazu zählt auch die Einbindung von Feldbussystemen. TACNET 4.0 setzt dabei auf offene Schnittstellen, sodass die Netzwerkfunktionen etwa durch Apps erweitert werden können. Auch soll das Mobilfunknetz zur Weitbereichsabdeckung genutzt werden, anstatt wie bisher nur lokale drahtlose Sensornetze oder WLAN zu verwenden.

Vierzehn Partner – drei Jahre Laufzeit

Zum TACNET-Konsortium gehören unter anderem das ABB Forschungszentrum, Bosch, das Institut für industrielle Informationstechnik (inIT) der Hochschule OWL, NXP, die TU Dresden und die Uni Bremen und Partner wie BASF, Busch-Jaeger, Hirschmann Automation and Control, Vodafone und andere Unternehmen und Institutionen.

Initiiert wurde TACNET 4.0[1] bereits im April 2017. Die Gesamtlaufzeit beträgt drei Jahre. Das BMBF fördert das Projekt[2] mit rund 6,4 Millionen Euro. Am 30.11.2017 fand in München das erste Konsortialtreffen zum ersten Projekt-Meilenstein statt. Damit schlossen die Teilnehmer die Analyse der Anwendungsfälle und Industrieanforderungen ab. Sie werden nun in die 3GPP-Standdardisierung eingebracht, sodass die technischen Arbeitsgruppen mit ihren Aufgaben starten können.


URL dieses Artikels:
http://www.heise.de/-3908251

Links in diesem Artikel:
[1] http://www.tacnet40.de
[2] https://www.forschung-it-sicherheit-kommunikationssysteme.de/projekte/tacnet
[3] mailto:dz@ct.de

Copyright © 2017 Heise Medien

Let's block ads! (Why?)

✇ iX news ff.org

Stretch für x86: Raspberry Pi Desktop für den PC und Mac aktualisiert

Von heise online — 04. Dezember 2017 um 14:37

(Bild: Raspberry Pi Foundation)

Nach der ARM- erscheint nun die x86-Variante des Raspberry Pi Desktops auf Basis von Debian Stretch. Mit an Bord ist ein Programm, mit dem Nutzer ihre Pi-Clients vom PC aus verwalten können.

Im Rahmen eines Updates haben die Raspbian-Entwickler die x86-Variante ihrer Linux-Distribution – einfach Raspberry Pi Desktop genannt – auf einen Stand mit dem Pi gebracht. Das Betriebssystem basiert nun auch für PCs und Macs erstmals auf Debian Stretch, Pi-Nutzern stand der Sprung von Jessie [1] im August diesen Jahres ins Haus.

Der Pi auf dem x86-Rechner entspricht fast vollständig seinem Raspbian-Bruder, einzig ein paar Programme wie Mathematica sind nicht enthalten. Der hauseigene Desktop ist jedoch derselbe. Entsprechend erhalten beide Varianten des Betriebssystems die Änderungen des Dateimanagers PCManFM – Teil des LXDE-Projekts –, dank der das Programm mit weniger angezeigten Optionen weniger Verwirrung stiften soll. Alle Entscheidungen der Designer können Nutzer in der Ankündigung [2] nachvollziehen, gleichsam lassen sich alle Vereinfachungen mit einem Klick rückgängig machen.

Batteriestands-Anzeige für Laptops

Wer den Raspberry Pi Desktop auf seinem Laptop installiert, wird sich über die Anzeige des Batteriestands freuen. Sie unterstützt außerdem bereits die erste Generation des pi-top. Ab Werk liegt der x86-Ausgabe die Anwendung PiServer bei. Mit ihr lassen sich Raspberry-Pi [3]-Clients zum Beispiel im Klassenzimmer zentral verwalten. Ein zweites Programm dient dem Zugriff auf die GPIO-Pins eines per USB am PC angeschlossenen Pi Zero [4]. Sie kann der Nutzer anschließend in Scratch oder Python verwenden. Optional lassen sich die beiden neuen Programme auch auf einem herkömmlichen Pi installieren.

Weitere Änderungen im Detail beheben in beiden Varianten einige Bugs. Der Raspberry Pi Desktop lässt sich als Live-Distribution starten oder auf der lokalen Festplatte aufsetzen, wobei das Installationsprogramm die letztere komplett überschreibt. Wer von Jessie ein Upgrade durchführen will, muss in den Dateien /etc/apt/sources.list und /etc/apt/sources.list.d/raspi.list Jessie durch Stretch ersetzen und einige Programme manuell installieren; die genauen Befehle können Interessierte in der Ankündigung der Entwickler [5] einsehen.


URL dieses Artikels:
https://www.heise.de/ix/meldung/Stretch-fuer-x86-Raspberry-Pi-Desktop-fuer-den-PC-und-Mac-aktualisiert-3907897.html

Links in diesem Artikel:
  [1] https://www.heise.de/ix/meldung/Raspbian-Version-Stretch-auf-Basis-von-Debian-9-veroeffentlicht-3807824.html
  [2] https://www.raspberrypi.org/blog/stretch-pcs-macs-raspbian-update/
  [3] https://www.heise.de/preisvergleich/raspberry-pi-3-modell-b-a1400349.html
  [4] https://www.heise.de/preisvergleich/?fs=raspberry+pi+zero&in=
  [5] https://www.raspberrypi.org/blog/stretch-pcs-macs-raspbian-update/
  [6] mailto:fo@heise.de

Let's block ads! (Why?)

✇ iX news ff.org

Google verbietet Werbung auf dem Android-Sperrbildschirm

Von heise online — 04. Dezember 2017 um 09:25

zurück zum Artikel

Google verbietet Werbung auf dem Sperrbildschirm

Die im November erfolgte Aktualisierung der Bedingungen für Apps im Play Store verbietet eine nervige Werbeform, und sorgt zudem für Klarheit in Sachen Alters-Rating und Design for Families.

Google hat die Verträge für Apps im Play Store aktualisiert: Nun ist eine nervige Werbeform verboten. Klarheit gibt es in Sachen Alters-Rating und Design for Families.

Das vom weit verbreiteten Dateimanager ES File “populär gemachte” Ersetzen des Sperrbildschirms von Android-Smartphones ist ab sofort untersagt. Der genaue Passus klingt so: “Unless the exclusive purpose of the app is that of a lockscreen, apps may not introduce ads or features that monetize the locked display of a device.”

Dank der obligatorischen dreißigtägigen Frist haben Entwickler bis zum 30. Dezember dieses Jahres Zeit, ihre Programme an die neuen Regulierungen anzupassen. Danach dürfte ein insbesondere bei technisch wenig versierten Nutzern universell verhasstes Problem der Vergangenheit angehören.

Kinder im Fokus

Der Schutz Minderjähriger ist seit jeher ein Problem für Store-Betreiber: Schon zu Zeiten von Jamba und Co gab es immer wieder Medienkampagnen. Google bietet Entwicklern schon länger die Möglichkeit, durch Ausfüllen eines Fragebogens zu einem Alters-Rating zu kommen. Neu ist hier, dass das Ausfüllen dieses Formulars ab sofort obligatorisch ist und unbewertete Applikationen aus dem Store fliegen.

Wer ein spezifisch für die Bedürfnisse von Kindern vorgesehenes Programm anbietet, kann seit Juli 2016 auf “Designed for Families” zurückgreifen. Google aktualisiert die diesbezüglichen Kriterien nun zum zweiten Mal – das letzte Update erfolgte im April. Die Attributliste[1] weist selbst keine Versionsinformationen auf, aber im Internet Archive finden sich ältere Varianten.

Beim Betrachten der Unterschiede fällt auf, dass Google im Bereich Log-in-Dienste schärfere Kriterien anlegt. So ist es nun im Allgemeinen verboten (may not), Google Sign In oder die Play Services als Log-in-Dienst zu verwenden. Bisher fand sich an der Stelle die offenere Formulierung "should not". Wie bisher gibt es für “Mixed Audience”-Apps eine Ausnahme, sofern das Einloggen nicht verpflichtend ist.

Kontrollierte Vielfalt

Aufgrund des offenen Aufbaus von Android ist das Aufkommen diverser Arten von Malware unvermeidlich: Gerade das Ersetzen des Lockscreens mit Zeitverzögerung (wie bei ES File) ist eine für wenig seriöse Entwickler gewinnbringende Maßnahme. Durch das Ändern der Play-Store-Bedingungen ist Google in der Lage, das Ökosystem zu steuern: Für viele User sind Applikationen, die nicht per Google Play erhältlich sind, quasi unsichtbar. (Tam Hanna) /


URL dieses Artikels:
http://www.heise.de/-3907487

Links in diesem Artikel:
[1] https://play.google.com/about/families/designed-for-families/program-requirements/
[2] mailto:rme@ct.de

Copyright © 2017 Heise Medien

Let's block ads! (Why?)

✇ iX news ff.org

Mainzer Superrechner jongliert mit Petaflops

Von heise online — 04. Dezember 2017 um 07:15

zurück zum Artikel

heise online
Mainzer Superrechner jongliert mit Petaflops

(Bild: Johannes-Gutenberg-Universität Mainz)

Ohne Hochleistungsrechner ist Klimaforschung ebenso undenkbar wie die Erkundung kleinster Atomteilchen. Mit Mogon II an der Mainzer Uni bekommt das "High Performance Computing" in Deutschland neuen Schub.

Der leistungsstärkste Computer einer deutschen Universität hat in Mainz seinen Betrieb aufgenommen[1]. Offiziell eingeweiht wird der Supercomputer Mogon II im März. Die Anlage, die nach dem antiken Stadtnamen Mogontiacum aus der Römerzeit benannt ist, dient künftig vor allem der Grundlagenforschung in Physik, Biologie, Medizin und Geologie. Physiker des Helmholtz-Instituts Mainz wollen die Anlage für die Simulation von Teilchenkollisionen nutzen. "Auch Wetter und Klima sind ein Thema für Mogon II", sagt der Leiter des Zentrums für Datenverarbeitung (ZDV) an der Johannes-Gutenberg-Universität Mainz, André Brinkmann.

Die Klimaforschung profitiert von der Fähigkeit des Supercomputers, auch sehr hohe Auflösungen zu berechnen. "Je mehr Rechenkapazität wir haben, umso feiner können wir auflösen", erklärt Brinkmann. Klimaforscher und Meteorologen könnten dann viel feinere Eigenschaften modellieren und in ihre Berechnungen einbringen. "Für die Zukunft gibt es daher noch viel Raum für deutlich präzisere Vorhersagen."

Top 100 der Welt

Mogon II, aufgebaut neben seinem Vorgänger aus dem Jahr 2012[2], kann in einer Sekunde rund 2 Billiarden Einzelberechnungen oder 2 Petaflops ausführen, 1.967.800.000.000.000 Gleitkommaoperationen (floating operations) pro Sekunde, abgekürzt als FLOPS. In der Liste der weltweit 500 schnellsten Rechner[3] liegt Mogon II damit auf Platz 65. In der Spitze sind sogar 2,8 Petaflops drin.

Wenn nicht nur die Leistung, sondern auch der Stromverbrauch gemessen wird, rangiert der Mainzer Supercomputer in der Weltrangliste der Top-500-Supercomputer auf Platz 51. "Die Fortschritte der Computer-Technologie ermöglichen es, dass der neue Hochleistungsrechner bei nahezu siebenfacher Peak-Leistung gegenüber seinem Vorgängersystem mit einer Leistungsaufnahme von 657 Kilowatt nur 40 Prozent mehr Strom als dieses benötigt", erklärt Brinkmann.

High Performance Computing

Mogon II "wird das wissenschaftliche Rechnen im Bereich des High Performance Computing in Deutschland und insbesondere in Rheinland-Pfalz maßgeblich beeinflussen und nachhaltig befördern", erklärt Wolfgang Nagel vom Vorstand der Gauß-Allianz. Der Zusammenschluss kümmert sich um die Zusammenarbeit der Hochleistungsrechner (HPC) in Deutschland.

Die Verfügbarkeit leistungsstarker HPC-Systeme trage dazu bei, "Deutschlands Expertise im Bereich der Algorithmen, Simulations-Software und Software-Werkzeuge zu sichern und weiter auszubauen", erwartet Nagel, der an der Technischen Universität Dresden das Zentrum für Informationsdienste und Hochleistungsrechnen leitet. Im Kreis der Bundesländer mit HPC-Präsenz gewinne Rheinland-Pfalz nun verstärkt an Bedeutung.

Der Mainzer Hochleistungsrechner ist nicht der einzige im Bundesland. Neben einer HPC-Anlage der BASF in Ludwigshafen ist an der Technischen Universität Kaiserslautern der Supercomputer Elwetritsch im Einsatz[4], benannt nach einem Pfälzer Fabelwesen. Dieser Rechner bringt es nach Angaben einer Sprecherin auf eine Leistung von 230 Teraflops, also 0,230 Petaflops. Anfang kommenden Jahres wird der neue Hochleistungsrechner Elwetritsch II in Betrieb genommen, der die doppelte Rechenleistung bieten wird.

Beide Uni-Anlagen sind über eine 120-Gigabit-Glasfaserleistung miteinander verbunden, in der Allianz für Hochleistungsrechnen Rheinland-Pfalz (AHRP)[5]. "Wir versuchen, unsere Systeme ähnlich zu betreiben und von den anderen zu lernen, um Probleme schneller beheben zu können", erklärt Brinkmann. Außerdem kann im Verbund die Rechenlast ausbalanciert werden: Wenn Wissenschaftler in Kaiserslautern mehr Rechenleistung benötigen, als Elwetritsch zur Verfügung stellt, kann Mogon aushelfen.

Unverzichtbare Technologie

Die mit Hilfe der Supercomputer erzielten Ergebnisse führen in der Regel nicht zu kurzfristigen Produkten, sondern dienen der Grundlagenforschung. "Das ist ohne öffentliche Förderung nicht machbar", erklärt Brinkmann. Die Johannes-Gutenberg-Universität und das Helmholz-Institut Mainz haben seit 2016 insgesamt 10,6 Millionen Euro in den neuen Mainzer Hochleistungsrechner investiert.

"Hochleistungsrechner sind heutzutage eine unverzichtbare Schlüsseltechnologie in nahezu allen Disziplinen", betont der rheinland-pfälzische Wissenschaftsminister Konrad Wolf (SPD). Im Verbund von Mainz und Kaiserslautern werde allen Wissenschaftlern in Rheinland-Pfalz Zugang zu Rechenleistungen der internationalen Spitzenklasse ermöglicht.

Was heute noch Topstandard der Hardware-Technik ist, kann in wenigen Monaten schon überholt sein. Die Dynamik bei Hochleistungsrechnern ist so groß, dass die jetzt in der Top-500-Liste genannten Computer bald nach unten durchgereicht werden. Aber die Liste wird nur zweimal im Jahr aktualisiert. Wenn im März die Einweihung von Mogon II ansteht, kann der Computer noch stolz seinen Platz 65 präsentieren. (Peter Zschunke, dpa) /


URL dieses Artikels:
http://www.heise.de/-3907460

Links in diesem Artikel:
[1] https://hpc.uni-mainz.de/high-performance-computing/mogonbild/
[2] https://www.heise.de/meldung/Supercomputer-Mogon-an-der-Uni-Mainz-eingeweiht-1594597.html
[3] https://www.heise.de/meldung/Supercomputer-China-wieder-first-America-second-3889197.html
[4] https://elwe.rhrk.uni-kl.de/
[5] https://www.ahrp.info/index.shtml
[6] mailto:bbo@ix.de

Copyright © 2017 Heise Medien

Let's block ads! (Why?)

✇ iX news ff.org

Analyse: Amazon kann die AWS-Defizite nicht mit neuen Diensten übertünchen

Von heise online — 04. Dezember 2017 um 08:22

Amazon legte diesjährige re:Invent als ein Festival der Superlative aus. Aber bei näherem Hinsehen zeigten sich einige Schwächen, die den bisherigen Steigflug der AWS-Cloud bremsen könnten.

Es war die sechste re:Invent und es war alles in allem ein Mega-Event. Während bei der ersten Veranstaltung 2012 knapp 6000 Teilnehmer in die Wüstenstadt Las Vegas reisten, kamen dieses Jahr über 43000 Cloud-Fans [1]. Für sie fuhr Amazon rund 1300 Sessions, inklusive einer mehrstündigen Keynote, auf. Und auch sonst ließ AWS-Chef Andy Jassy keinen Zweifel daran aufkommen, dass man mit einem Marktanteil von 44,1 Prozent eindeutig der Platzhirsch unter den Cloud-Providern ist. Gartner sieht bereits eine rapide zunehmende Konsolidierung und viele Beobachter gehen davon aus, dass es in wenigen Jahren nur noch eine Handvoll Anbieter geben wird.

Größe ist nicht immer positiv

Aber gerade diese Konsolidierung und die bereits erreichte Größe könnten für AWS gefährlich werden. IBM, Google und Microsoft haben da bereits schmerzliche Erfahrungen gemacht. So dürfte AWS schon bald die Kartellbehörden auf den Plan rufen. Das Problem sieht man natürlich auch bei Amazon und versucht bereits gegenzusteuern. "Cloud-Computing ist ein Billionen-Markt mit beachtlichen Steigerungsraten in allen Teilbereichen, wie Infrastruktur, Middleware, Anwendungen und Services. Alle großen Anbieter verzeichnen ordentliche Wachstumsraten. Hier ist noch genügend Platz für viele und vieles", meinte AWS‘ Infrastrukturchef Peter DeSantis in einem Interview.

In der Tat scheint das Cloud-Rennen trotz der rekordverdächtigen AWS-Zahlen noch nicht entschieden. So zeichnet sich gerade in deren umfangreichen Servicenagebot ein Rückschlag ab. So rühmte sich AWS-CTO Werner Vogels noch sehr dafür, dass man in den letzten fünf Jahren knapp 4000 Neuheiten oder Verbesserungen herausgebracht habe, doch dieses immense Angebot wird immer häufiger als negativ eingestuft. "Das Angebot ist zu unübersichtlich geworden und viele Angebote überlappen sich; AWS entwickelt sich zu einem Anbieter, der immer schwerer zu managen ist", sagt Brent Bracelin, Senior Analyst bei der Investmentbank Pacific Crest.

Azure hat die Nase vorne

Es gibt auch deutliche Angebotsunterschiede bei den großen Providern. Dazu gehört beispielsweise die Unterstützung einer Hybrid-Cloud-Umgebung, also der Cloud, die sich inzwischen durchgesetzt hat. Wenn in so einer Architektur der On-Premise-Teil überwiegend auf Microsoft-Systemen basiert, ist Azure der AWS-Plattform in vielen Punkten überlegen. Das zeigt sich beispielsweise an den Hybrid-Management-Tools, wie Azure Stack, Hybrid SQL und Azure StoreSimple. Der Grund dafür ist, dass Amazon ursprünglich eine reinrassige Cloud-Only-Strategie verfolgte und jede Art von In-House-IT als unnötig abstempelte. Microsoft hat dagegen von Anfang an auf eine hybride Nutzung gesetzt – und das könnte sich bei einer zunehmenden Ausbreitung der Hybrid Cloud auszahlen.

Trotz des gewaltigen Angebotes an stets neuen Diensten ist AWS aber nicht immer an der vordersten Front vertreten, wenn es um angesagte Trends geht. Insbesondere die Blockchain lässt der Konzern links liegen. Mit Bitcoin gerät sie zwar manchmal negativ in die Schlagzeilen, doch andererseits setzen viele Länder sie immer häufiger in der öffentlichen Verwaltung ein. Während IBM und Microsoft hierzu entsprechende Dienste anbieten, hat man bei Amazon keinerlei Pläne. "Wir entwickeln keine Technologien, nur weil manche meinen, sie sei cool", gab Andy Jassy in der Pressekonferenz als Begründung für die AWS-Abstinenz an. Seiner Ansicht nach gibt es nur einen begrenzten Anwendungsfall für die Blockchain, der den Entwicklungsaufwand nicht rechtfertigen würde. Allerdings räumte er ein, dass man die Entwicklung genau verfolge. "Wir schauen uns sehr genau an, was sich bei unseren Kunden auf diesem Gebiet tut", lautete sein vielsagender Ausblick.

Profi-Cloud als Marketingvehikel

Ein Dämpfer könnte auch der erkennbare Schulterschluss von AWS mit Amazons Online-Shop sein. Große Teile der Keynotes von Jassy und Vogels waren reinrassige Werbeveranstaltungen für Alexa und das neue Gadget, die smarte Kamera DeepLens. Vogels widmete dabei einen großen Teil seiner Rede der Sprache als Mensch-Maschine-Interface. Sein Ausgangspunkt war der, dass Maus und Tastatur keine natürlichen Kommunikationsmittel seien, sondern dafür geschaffen wurden, um die Schwächen früherer Systeme zu umgehen. Seine Forderung: "Nicht der Mensch soll sich an die Maschinen anpassen, sondern umgekehrt."

Damit kommt er aber zu spät. Ein Blick in jeden Warteraum, in einen Zug oder ein Café zeigt deutlich, dass die Anpassung des Menschen ans Handy oder Tablet schon längst stattgefunden hat. Hinzu kommt, dass vor allem die Sprachausgabe wesentlich ineffizienter ist, als es grafische Ausgaben sind. Vogels nutzte eine Business-Anwendung von Alexa die Frage: "Alexa, wie viele Laptops haben wir auf Lager?" Eine Sprachantwort gab es nicht, denn die wäre ja auch nicht sonderlich attraktiv ausgefallen. Mit einer Zahl als Antwort, beispielsweise 76, wäre die Frage zwar korrekt beantwortet, doch jede Standardanfrage mit Tastatur oder Maus hätte nicht nur die Zahl 76 auf den Bildschirm befördert, sondern außerdem eine Tabelle geboten, in der alle Systeme mit Bild und weiteren technischen Daten übersichtlich dargestellt sind. Das vorzulesen macht weder Sinn, noch macht es die Arbeit produktiver.


URL dieses Artikels:
https://www.heise.de/ix/meldung/Analyse-Amazon-kann-die-AWS-Defizite-nicht-mit-neuen-Diensten-uebertuenchen-3907466.html

Links in diesem Artikel:
  [1] https://www.heise.de/ix/meldung/re-Invent-2017-Amazon-ueberkommt-die-Cloud-Ankuendigungswut-3903783.html
  [2] mailto:fo@heise.de

Let's block ads! (Why?)

✇ iX news ff.org

Django 2.0: Neue Version des Python-Webframeworks

Von heise online — 03. Dezember 2017 um 17:08

Django 2.0 gibt die Unterstützung für Python 2 endgültig auf. Das URL-Routing lässt sich jetzt auch ohne reguläre Ausdrücke aufsetzen.

Ernsthafte Webentwicklung bedeutet heutzutage in der Regel den Einsatz eines Webframeworks, das dem Entwickler viele Routinetätigkeiten abnimmt. In der Python-Welt ist Django, benannt nach dem Jazz-Gitarristen Django Reinhardt, seit zehn Jahren das Webframework der Wahl. Konkurrenten wie Flask konnten bislang nur Nischen besetzen.

Django setzt konsequent das Model-View-Controller-Konzept um, kapselt Datenbankzugriffe über eine objektrelationale Abbildung und generiert automatisch eine Oberfläche zur Verwaltung von Datenbank und Benutzern. Das Framework enthält eine leistungsfähige Template-Sprache und bietet eine flexible URL-Konfiguration.

Die frisch erschienene Version 2.0 ist trotz des großen Versionssprungs weitgehend rückwärtskompatibel zur Vorversion 1.11 – mit einer Ausnahme: Django 2 arbeitet nur noch mit Python 3.4, 3.5 und 3.6 zusammen. Wer noch Python 2.7 nutzt, muss bei Django 1.11 bleiben, das als LTS-Version noch bis April 2020 Sicherheits- und kritische Bugfixes erhalten soll. Django 1.10 hat mit dem Erscheinen der neuen Version das Ende des Supports erreicht.

Neue Versionierung

Mit dem neuen Release kommt ein neues Versionierungsschema, das die Python-Macher im Blog-Beitrag zur neuen Version [1] als eine "lockere Form von semantischer Versionierung" bezeichnen. Zukünftig soll es zwei Minor Versions ohne Langzeit-Support (2.0, 2.1) und dann eine LTS-Version (2.2) geben. Anschließend folgt eine neue Major Version (3.0). Die wird dann entsprechend mit Version 3.2 Langzeit-Support erhalten.

Zu den wichtigsten technischen Neuerungen in Django 2.0 gehört eine vereinfachte Syntax zum URL-Routing, die ohne reguläre Ausdrücke auskommt: Statt

url(r'^articles/(?P[0-9]{4})/$', views.year_archive)

kann man jetzt auch

path('articles//', views.year_archive)

schreiben.

Die automatisch generierte Adminoberfläche ist jetzt responsiv. Zahlreiche weitere Neuerungen, darunter auch die neuen Window Expressions, erläutern die Django 2.0 release notes [2].


URL dieses Artikels:
https://www.heise.de/ix/meldung/Django-2-0-Neue-Version-des-Python-Webframeworks-3907355.html

Links in diesem Artikel:
  [1] https://www.djangoproject.com/weblog/2017/dec/02/django-20-released/
  [2] https://docs.djangoproject.com/en/2.0/releases/2.0/
  [3] mailto:odi@ix.de

Let's block ads! (Why?)

✇ iX news ff.org

Gegen BND-Überwachung: Reporter ohne Grenzen rufen Europäischen Gerichtshof für Menschenrechte an

Von heise online — 02. Dezember 2017 um 17:02

zurück zum Artikel

heise online
Reporter ohne Grenzen rufen Europäische Gerichtshof für Menschenrechte an

Nachdem Reporter ohne Grenzen mit ihrer Klage gegen den BND-Datenstaubsauger vor deutschen obersten Gerichten erfolglos blieb, trägt die Organisation diese nun vor den Straßburger Gerichtshof für Menschenrechte.

Die Aktivisten von Reporter ohne Grenzen (ROG) lassen mit ihrer Klage gegen die "strategische Fernmeldeüberwachung" durch den Bundesnachrichtendienst (BND) nicht locker. Die zivilgesellschaftliche Organisation hat ihre Beschwerde gegen die Massenüberwachung[1] jetzt vor den Europäischen Gerichtshof für Menschenrechte (EGMR[2]) gebracht. Zuvor war sie mit einem einschlägigen Verfahren vor dem Bundesverwaltungsgericht weitgehend gescheitert[3]. Auch der Gang vor das Bundesverfassungsgericht[4] blieb erfolglos: Die Karlsruher Richter nahmen die entsprechende Verfassungsbeschwerde mit einem Beschluss von Ende April nicht zur Entscheidung an.

ROG wirft dem Auslandsgeheimdienst vor, im Zuge seiner heftig umstrittenen Überwachungspraktiken den E-Mail-Verkehr der Organisation mit ausländischen Partnern, Journalisten und anderen Personen ausgespäht zu haben. Es bei den Klagen vor allem um Befugnisse aus dem sogenannten G10-Gesetzes[5], das dem BND umfangreiche Eingriffe ins Fernmeldegeheimnis erlaubt, das in Artikel 10 Grundgesetz verankert ist. So dürfen die Spione etwa einen Datenstaubsauger einsetzen[6], um den internationalen Telekommunikationsverkehr mithilfe bestimmter Suchbegriffe und sonstiger Selektoren zu durchforsten.

Bundesnachrichtendienst BND
Reporter ohne Grenzen wirft dem BND vor, E-Mails Organisation ausspioniert zu haben. (Bild: 

BND ) </span>

Die bislang angerufenen obersten deutschen Gerichte sahen ihre Hände gebunden, da ROG nicht habe glaubhaft machen können, dass die Organisation selbst von der BND-Bespitzelung betroffen war. Der geforderte Nachweis ist wegen der Geheimniskrämerei bei dem Nachrichtendienst schwer zu erbringen. In der Klageschrift an den EGMR führt die Vereinigung nun an, dass der BND ihr Recht auf Achtung der Korrespondenz sowie des Rechts auf Meinungs- und Informationsfreiheit gemäß den Artikeln 8 und 10 der Europäischen Menschenrechtskonvention[7] verletzt habe. Die ausufernden Suchkriterien des Geheimdienstes führten zu einer durch den mutmaßlichen Zweck der Maßnahmen keinesfalls gedeckten Reichweite der Eingriffe.

Betroffene bleiben ahnungslos

Darüber hinaus macht Reporter ohne Grenzen geltend, in ihrem Recht auf wirksame Beschwerde verletzt worden zu sein. Der weitaus größte Teil der Betroffenen erfahre nicht einmal im Nachhinein etwas davon, "dass ihre E-Mails erfasst und durchsucht werden", schreibt die Organisation. Selbst die Allgemeinheit mit den jährlichen Berichten des Parlamentarischen Kontrollgremiums des Bundestags regelmäßig erst dann über Überwachungsmaßnahmen informiert, wenn sogar entscheidende Protokolldaten schon gelöscht worden seien. Klagen dagegen vor deutschen Gerichten seien unter den aufgeführten Umständen unmöglich.

"Die ausufernde Überwachungspraxis des BND stellt die Vertraulichkeit digitaler Kommunikation grundsätzlich in Frage und untergräbt damit eine Voraussetzung journalistischer Recherche", begründete ROG-Geschäftsführer Christian Mihr den neuen Schritt. Jetzt sei es an den Straßburger Richtern, "dem Grundrecht auf Rechtsschutz vor der anlasslosen und unverhältnismäßigen BND-Massenüberwachung endlich zur Geltung zu verhelfen". Parallel ist der Teil der ursprünglichen Klage gegen das vom BND geführte Metadaten-Analysesystem Veras[8] weiter anhängig; auch eine Verfassungsbeschwerde von Amnesty International gegen den Datenstaubsauger der Schlapphüte läuft noch[9].

Der EGMR beschäftigt sich parallel mit Klagen von Bürgerrechtlern und Nichtregierungsorganisationen[10] gegen die gegen die Internet- und Computerspionage des britischen Geheimdiensts GCHQ[11]. Zu den Beschwerdeführern gehören hier unter anderem Provider, Constanze Kurz vom Chaos Computer Club (CCC)[12] sowie Privacy International. Eine Anhörung dazu fand Anfang November statt[13], bei der die Richter die Hacking-Methoden der Londoner Behörde hinterfragten. Mit einem Urteil des Menschengerichtshof in diesen Fällen ist 2018 zu rechnen. (Stefan Krempl) /


URL dieses Artikels:
http://www.heise.de/-3907198

Links in diesem Artikel:
[1] https://www.heise.de/meldung/NSA-Skandal-Reporter-ohne-Grenzen-klagt-gegen-BND-2732465.html
[2] http://www.echr.coe.int/
[3] https://www.heise.de/meldung/Bundesverwaltungsgericht-lehnt-Klagen-gegen-BND-teilweise-ab-3570480.html
[4] https://www.heise.de/meldung/Verfassungsgericht-Reporter-ohne-Grenzen-klagt-gegen-BND-Ueberwachung-3642414.html
[5] https://www.gesetze-im-internet.de/g10_2001/
[6] https://www.heise.de/meldung/NSA-Ausschuss-Kanzleramt-will-BND-Datenstaubsauger-strenger-regulieren-3356342.html
[7] http://www.echr.coe.int/Documents/Convention_DEU.pdf
[8] https://www.heise.de/meldung/NSA-Ausschuss-BND-kann-Daten-zu-Kontaktpersonen-schier-unbegrenzt-sammeln-3538172.html
[9] https://www.heise.de/meldung/Internetueberwachung-Amnesty-klagt-gegen-BND-Datenstaubsauger-3466588.html
[10] https://www.heise.de/meldung/Neue-Klage-gegen-GCHQ-Hacking-vor-dem-Menschengerichtshof-3289446.html
[11] https://www.heise.de/meldung/UK-Geheimdienst-Britisches-Gericht-billigt-weitgehendes-GCHQ-Hacking-3103064.html
[12] https://www.heise.de/meldung/GCHQ-Ueberwachung-Buergerrechtler-klagen-in-Strassburg-1972227.html
[13] https://netzpolitik.org/2017/anhoerung-beim-menschenrechtsgerichtshof-d%20ie-rechtswidrigkeit-der-massenueberwachung/
[14] mailto:it@ct.de

Copyright © 2017 Heise Medien

Let's block ads! (Why?)

❌