FreshRSS

🔒
✇ iX news ff.org

Das Internet der Dinge lädt ein zu Cyberattacken

Von heise online — 14. Dezember 2017 um 08:26

zurück zum Artikel

heise online
Polizei, Cybercrime, Sicherheit

Die Zahl vernetzter Geräte hat im Internet der Dinge massiv zugenommen. Sie stellen eine wachsende Gefahr dar, zumal ihre Anfälligkeit für Attacken unterschätzt wird. Auch die Bundeswehr sieht sich mit erhöhten Anforderungen an IT-Sicherheit konfrontiert.

Ein verzweifelter Familienvater steht mit seiner Frau und zwei heulenden Kindern vor dem Eingang zum Vergnügungspark. Er habe die Eintrittskarten ausgedruckt, aber leider zu Hause vergessen, erklärt er der Dame an der Kasse. Ob sie nicht einfach schnell seinen Mailaccount öffnen und die Tickets noch einmal ausdrucken könne? Sonst wären zwei Stunden Fahrt umsonst gewesen. Inzwischen ist auch die Ehefrau in Tränen aufgelöst. Die Kassiererin kann das nicht länger ansehen, ruft die Mail des Besuchers (der ihr vertrauensvoll das Passwort nennt) auf, gibt den Druckbefehl.

Was dann passierte, erinnerte Martin Göttler (Firma MagSoft) der bei der Cyber Defence Conference[1] in Bonn von dem Vorfall berichtete, nicht mehr in allen Einzelheiten. Jedenfalls brach das Computersystem des Vergnügungsparks zusammen, nachdem über den Druckbefehl Schadsoftware eingeschleust worden war, was den Betreiber erpressbar machte. Die Cyberattacke ereignete sich vor wenigen Jahren in den USA.

Unter dem Radar

Drucker dürften zu den ersten vernetzten Geräten zählen, die keine Computer waren. Im Zusammenhang mit dem Internet der Dinge hat die Zahl dieser Geräte mittlerweile exponentiell zugenommen. In der Regel spielen Sicherheitserwägungen bei ihnen jedoch eine deutlich geringere Rolle als bei "richtigen" Rechnern.

Solche Geräte seien daher eine unterschätzte Gefahr, sagte Peter Weidenbach vom Fraunhofer-Institut für Kommunikation, Informationsverarbeitung und Ergonomie (FKIE). Er unterstrich das mit einer Live-Demonstration: Während seines Vortrags spielte er Malware auf einen Drucker, auf dessen Display auf einmal ein Totenkopf mit zwei gekreuzten Schwertern erschien und der ansonsten jeden weiteren Betrieb einstellte.

Die Gesamtkosten für so einen Angriff lägen bei weniger als 10.000 Euro, der Schaden für eine Firma mit 1.000 Mitarbeitern könne sich aber leicht auf 75.000 Euro beziffern, allein für den Verlust der Drucker. Folgekosten für Produktionsausfälle oder verpasste Termine kämen noch hinzu. Zudem könne vom Drucker auch ein Tunnel ins Netzwerk gelegt und darüber weitere Geräte infiziert oder Daten gestohlen werden.

Unterschätzte Gefahr

Eine Sicherheitsbewertung müsse daher für jedes vernetzte Gerät vorgenommen werden, forderte Weidenbach. Den hier bestehenden Nachholbedarf unterstrich er mit dem Hinweis, dass im Newsticker von heise online allein im letzten Monat über 10 Fälle von Sicherheitslücken in vernetzten Geräten berichtet worden sei. "Und das ist nur die Spitze des Eisbergs", betonte er. Es gebe noch weit mehr Schwachstellen, die es nicht in die Nachrichten schafften.

Wie ausgeklügelt manche Angriffe erfolgen verdeutlichte Volker Kozok vom Bundesverteidigungsministerium am Beispiel einer Attacke auf die Demokratische Partei in den USA während des Präsidentschaftswahlkampfes. Ein russischer Kollege habe ihm bei einer Konferenz freimütig bestätigt, dass dieser Angriff, der unter dem Kürzel APT (Advanced Persistent Threat) 29 oder "Hammertoss" bekannt ist, in russischen Labors entwickelt worden sei. Dabei wurden zunächst E-Mails verschickt, die lediglich eine einfache Routine enthielten. Die wiederum aktivierte eine tägliche Abfrage nach Nachrichten auf einem bestimmten Twitter-Account, wo dann ein Link gepostet wurde – "stets während der russischen Arbeitszeiten", wie Kozok betonte –, der den Download eines Bildes veranlasste. Die darin versteckte Malware veranlasste die infizierten Rechner zum Hochladen von Daten in eine Cloud.

Cyber-Bundeswehr

"Die Fortschritte in der Digitalisierung betreffen die Bundeswehr massiv", sagte Armin Fleischmann, Abteilungsleiter Planung im neu eingerichteten Kommando Cyber- und Infomationsraum (KdoCIR) der Bundeswehr[2]. Dieser neue Organisationsbereich sei am 5. April 2017 aufgestellt worden, nur ein knappes Jahr nach einer entsprechenden Anordnung der Verteidigungsministerin.

Die volle Einsatzfähigkeit werde aber erst im Jahr 2021 erreicht sein, da es Zeit brauche, das nötige Fachpersonal zu rekrutieren. Unterstützung bekommt das CIR dabei von einem Cyber-Cluster, der an der Universität der Bundeswehr München eingerichtet wird. Elf Professuren sollen dort eingerichtet und bis Ende 2018 besetzt sein, erläuterte Gabi Dreo Rodosek von der Bundeswehr-Uni. Mit Stefan Brunthaler habe der erste Professor bereits am 1. Oktober dieses Jahres die Arbeit aufgenommen, sodass ab 1. Januar 2018 die ersten Studenten den Master-Studiengang Cybersicherheit belegen könnten.

Daneben hat die Bundeswehr das "Cyber Innovation Hub" (CIH) eingerichtet, das als Schnittstelle zu Innovationstreibern, insbesondere zur Startup-Szene dienen soll. Der traditionelle Ansatz der Technologieentwicklung mit Eigenmitteln durch das Militär selbst sei überholt, sagte Jan Byok von der der Führungsakademie der Bundeswehr. Stattdessen sollen die Produkte, die die Probleme der Bundeswehr lösen können, von der Gründerszene bereitgestellt werden.

Reibungspunkte

Jan Andresen, der selbst aus der freien Wirtschaft kommt und jetzt das CIH betreut, sah aber einige Reibungspunkte. So beiße sich die bei der Bundeswehr übliche Beschaffungsdauer von zwei Jahren und mehr mit der Dynamik von Startups, die sich alle paar Jahre erneuerten. Die beim Militär verbreitete Angst, Fehler zu begehen, sei auch nicht förderlich. Ein weiteres Hindernis seien starre Regeln bei der Personalgewinnung: Hochqualifizierte Leute mit 20 oder 30 Jahren Erfahrung könnten nicht engagiert werden, weil sie über keinen Hochschulabschluss verfügten.

Das CIH hat bis 2019 Zeit, sich zu bewähren. Für diese drei Jahre stehen 30 Millionen Euro zur Verfügung. Ob das wohl reiche, fragte Byok und Andresen antwortete: "Ich würde sogar Geld zurückgeben, wenn ich Prozesse neu schreiben dürfte." (Hans-Arthur Marsiske) /


URL dieses Artikels:
http://www.heise.de/-3917942

Links in diesem Artikel:
[1] https://www.dwt-sgw.de/veranstaltungen/veranstaltungen-der-sgw/detail/?tx_dwtevents%5Bevent%5D=374&cHash=aa1ab3c8de81abaf0b71fb3a100bc341
[2] https://www.heise.de/meldung/Die-Bundeswehr-auf-dem-neuen-digitalen-Gefechtsfeld-3824909.html
[3] mailto:jk@ct.de

Copyright © 2017 Heise Medien

Let's block ads! (Why?)

✇ iX news ff.org

Die Hölle friert ein weiteres Stück zu: Microsoft integriert OpenSSH in Windows

Von heise online — 14. Dezember 2017 um 07:00

zurück zum Artikel

heise online
Die Hölle friert ein weiteres Stück zu: Microsoft integriert OpenSSH in Windows

(Bild: Fabian A. Scherschel / heise online)

Nach Jahren der Weigerung hat Microsoft das Protokoll OpenSSH in die Kommandozeile von Windows eingebaut. Für den Produktivbetrieb eignet sich das Ganze allerdings noch nicht.

Microsoft hat still und leise einen OpenSSH-Client und -Server in die Kommandozeile von Windows 10 integriert. OpenSSH ist seit Jahrzehnten der de-facto Standard für die Administration von Linux- und Unix-Servern, bisher weigerte sich Microsoft allerdings beharrlich, das Protokoll in sein Betriebssystem zu integrieren. Natürlich stehen Admins seit jeher Programme von Drittentwicklern zur Verfügung, um das Protokoll unter Windows zu verwenden – das bekannteste Tool dieser Art ist wohl PuTTY.

SSH-Kommando in CMD.exe und PowerShell

Nachdem Microsoft schon mit dem Linux Subsystem für Windows[1] von seiner harten Linie gegen das quelloffene Konkurrenz-Betriebssystem abgerückt war, haben die Entwickler nun OpenSSH auch unabhängig von dieser Komponente in Windows integriert. Installieren lassen sich die OpenSSH-Tools über den Punkt "Optionale Features" der Windows-10-Systemeinstellungen. In einer langen Liste mit Schriftarten und optionalen Sprachmodulen verstecken sich dort die Einträge "OpenSSH Client (Beta)" und "OpenSSH Server (Beta)". Nach der Installation der Komponenten und einem Neustart lassen diese sich nun über die herkömmliche Kommandozeile sowie die PowerShell nutzen.

Fabian A. Scherschel / heise online
(Bild: Fabian A. Scherschel / heise online)

Wie am Zusatz "Beta" erkennbar ist rät Microsoft davon ab, diese Funktionen im Produktiv-Betrieb einzusetzen. Das entspricht auch der Einschätzung der c't-Kollegen, die einen Blick auf die neuen Funktionen geworfen haben. Bisher ist der SSH-Client demnach nicht stabil oder umfangreich genug, dass ein versierter Admin dafür sein Lieblings-SSH-Tool wegwerfen würde. Vor allem die Terminal-Emulation des Windows-Clients lässt noch viele Wünsche offen und der in Windows integrierte OpenSSH-Server funktioniert an manchen Stellen gar nicht.

Allem Anschein nach hat Microsoft diese Funktionen auch nicht in Windows eingebaut, um Linux- oder Unix-Admins zu helfen. Es scheint sich um Entwicklerfunktionen zu handeln, die für den Betrieb anderer Komponenten benötigt werden.

Weiterführende Informationen zu SSH-Clients auf Windows finden Sie in der aktuellen Ausgabe der iX[2].


URL dieses Artikels:
http://www.heise.de/-3917695

Links in diesem Artikel:
[1] https://www.heise.de/meldung/Hands-on-Das-neue-Linux-Subsystem-in-Windows-10-3163994.html
[2] https://www.heise.de/ix/heft/Wie-im-falschen-Film-3892743.html
[3] mailto:fab@heise.de

Copyright © 2017 Heise Medien

Let's block ads! (Why?)

✇ iX news ff.org

ThoughtWorks' Technology Radar: Blockchain und Kubernetes auf dem Vormarsch

Von heise online — 13. Dezember 2017 um 14:59

zurück zum Artikel

ThoughtWorks Technology Radar: Blockchain und Kubernetes auf Vormarsch

ThoughtWorks hat im November eine neue Edition seiner halbjährlichen Studie veröffentlicht. Bedeutungszuwachs sieht der "Technology Radar" vor allem bei Blockchain und Kubernetes.

Der zweimal jährlich erscheinende Technology Radar Report des weltweit tätigen IT-Dienstleisters ThoughtWorks gibt einen Überblick über die angesagten Themen und Technologien im Bereich der Softwareentwicklung. Die Studie beruht auf Beobachtungen, Gesprächen und Projekterfahrung mit Kunden. Im aktuellen Radar liegen die Schwerpunkte auf der steigenden Akzeptanz von Blockchain, Kubernetes als gängiger Plattform zur Containerorchestrierung, dem steigenden Interesses an Open-Source-Projekten in China und der wachsenden Popularität der Cloud als Rechennetz in Unternehmen.

Blockchain ist publikumsreif

Die Blockchain gewinnt zunehmend an Bedeutung als Basistechnologie für verteilte Register und sogenannte „Smart Contracts“ (Verträge auf Basis von Computerprotokollen) – obwohl Kryptowährungen wie Bitcoin, die ebenfalls auf Blockchain basieren, immer wieder zu Verunsicherung[1] rund um die Technologie sorgen. Mit dem, laut Technology Radar gestiegenen Reifegrad der Blockchain, lässt sich das dennoch gestiegene Vertrauen von Unternehmen in die neuen Mechanismen, die der Blockchain-Implementierung zugrunde liegen, erklären. Daher dürften sich immer mehr Branchen, die Bedarf an Systemen für verteilte Register haben, um den Vertraulichkeitsanforderungen ihrer Kunden gerecht zu werden, mit den Möglichkeiten der Blockchain auseinandersetzen.

Containerorchestrierung: Aber bitte mit Kubernetes

Kubernetes hat sich zu dem Betriebssystem für die Containerorchestrierung gemausert. Dies liegt zum Einen an der offenen und modularen Architektur und zum Anderen an dem wachsenden Ökosystem von Tools rund um Kubernetes. Da immer mehr Produkte Kubernetes als Ökosystem nutzen, sei damit, nach Einschätzung von ThoughtWorks, die nächste Abstraktions-Ebene nach Microservices und Containern erreicht. Das lasse zudem den Schluss zu, dass Entwickler moderne Software-Architekturen trotz der inhärenten Komplexität verteilter Systeme effektiv nutzen könnten.

Cloud keine Besonderheit mehr in Unternehmen

Die Cloud ist in vielen Unternehmen dank fallender Preise und höherer Leistungsfähigkeit nun mehr Standard. Außerdem werden Cloud-Anwendungen weiter entwickelt und bieten neben Basisfunktionen mittlerweile auch Antworten auf spezifischere Anforderungen. Auf dem Vormarsch sind, laut ThoughtWorks, ebenfalls Poly-Cloud Strategien. Entsprechend dem Best-of-Breed-Modell suchen sich Unternehmen hierbei aus unterschiedlichen Anbietern den jeweiligen besten Mix für ihre Workloads in der Cloud aus.

Open-Source-Innovationen aus China

Durch die politische und gesellschaftliche Öffnung Chinas, ist es großen chinesischen Unternehmen wie Alibaba und Baidu möglich, ihre Open Source Frameworks, Tools und Plattformen weltweit zugänglich und nutzbar zu machen. ThoughtWorks geht davon aus, dass angesichts der vielen Software-Projekte im boomenden chinesischen Markt die Anzahl und die Qualität von entsprechenden Open-Source-Projekten auf GitHub und anderen Open-Source-Plattformen rasant steigen wird.

Die komplette Auswertung gibt es auf der Webseite[2].


URL dieses Artikels:
http://www.heise.de/-3905054

Links in diesem Artikel:
[1] https://www.heise.de/meldung/Kursausschlaege-bei-Bitcoins-werden-heftiger-3914044.html
[2] https://www.thoughtworks.com/radar
[3] mailto:kkr@heise.de

Copyright © 2017 Heise Medien

Let's block ads! (Why?)

✇ iX news ff.org

Content Management: TYPO3 9.0 mit verbesserter Systemwartung

Von heise online — 13. Dezember 2017 um 10:56

Die neue Version des CMS bringt unter anderem überarbeitete Administrationswerkzeuge und eine verbesserte Vorschaufunktion.

Das erste Release von TYPO3 9 eröffnet eine Folge von mehreren Sprint-Releases, die mit der Veröffentlichung von TYPO3 9.5 LTS Anfang Oktober endet. In TYPO3 9.0 [1] haben die Entwickler drei Bereiche angepackt: mehrsprachige Webseiten, Administration, Vorschaufunktion und Seitenbaum.

Die überarbeiteten Admin-Tools sind direkt in das TYPO3-Backend integriert. Der neue Seitenbaum nutzt jetzt SVG.
Die überarbeiteten Admin-Tools sind direkt in das TYPO3-Backend integriert. Der neue Seitenbaum nutzt jetzt SVG.
Der neue Systemwartungsbereich ist eine Weiterentwicklung des Install Tools. Hier können Admins die Instanz konfigurieren, das System überprüfen, das Setup testen, Applikationen von Drittanbietern konfigurieren und das CMS aktualisieren. Die Systemwartung ist nun direkt in das Backend integriert und übersichtlicher geworden. Der neue Extension Scanner prüft die Installation, welche Anpassungen für eine Upgrade auf eine neue TYPO3-Version nötig sind.

Das Lokalisierungssystem zur Verwaltung mehrsprachiger Websites wurde gestrafft und vereinfacht. Der Seitenbaum, der die gesamte Struktur der Website darstellt, wurde einem Refactoring unterzogen. Die Grafik nutzt jetzt SVG. Die Vorschaufunktion präsentiert die Ansicht der Seite jetzt für mehrere definierte Geräte.


URL dieses Artikels:
https://www.heise.de/ix/meldung/Content-Management-TYPO3-9-0-mit-verbesserter-Systemwartung-3916967.html

Links in diesem Artikel:
  [1] https://typo3.org/news/article/typo3-v900-launched/
  [2] mailto:odi@ix.de

Let's block ads! (Why?)

✇ iX news ff.org

Texteditor Atom erweitert den Umgang mit URIs

Von heise online — 13. Dezember 2017 um 09:30

zurück zum Artikel

Der Texteditor Atom erweitert den Umgang mit URIs

In Atom 1.23 können Entwickler Pakete als Handler für bestimmte URIs registrieren. Außerdem lassen sich einzelne Befehle aus der Ansicht der Command Palette ausblenden.

GitHub hat Version 1.23 des plattformübergreifenden Open-Source-Editors Atom veröffentlicht. Neben den üblichen Bugfixes enthält der Editor einige Neuerungen, die vor allem den Autoren und Nutzern externer Pakete zugute kommen. Darüber hinaus hat das Team die im November vorgestellte[1] Erweiterung Teletype zum gemeinsamen Bearbeiten von Dateien in Version 0.3.0 herausgegeben, die vor allem Bugfixes und Verbesserungen bei den Netzwerkverbindungen enthält.

Entwickler können mit dem aktuellen Atom-Release ihre Erweiterungspakete als Handler für bestimmte URIs registrieren. So können sie beispielsweise alle Aufrufe von atom:://mein-paket/ mit einer Methode bearbeiten. Dazu müssen sie die package.json-Datei um ein uriHandler-Objekt erweitern und eine dedizierte Methode zum Behandeln des Einsprungs über die URI in ihr Paket integrieren. Auf der Dokumentationsseite[2] weist GitHub darauf hin, dass eine Funktion zum Behandeln von URIs, die andere Anwendungen wie Webbrowser auslösen, sehr mächtig ist und Entwickler verantwortungsvoll damit umgehen müssen.

Regeln für das URI-Handling

Auf keinen Fall sollten Pakete Aktionen hinter dem Rücken des Nutzers ausführen wie das Installieren weiterer Pakete ohne Rückfrage. Als Beispiel für den verantwortungsvollen Umgang nennt die Dokumentation das Klonen eines Repositorys: Ein URI-Handler, der den Prozess ohne Rückfrage anstößt, sei aggressiv, einer, der den Nutzer fragt, ober er das Repo klonen möchte und es daraufhin erledigt, sei dagegen okay. Das Team kündigt an, Pakete mit URI-Handlern, die nicht den Richtlinien entsprechen, aus der Atom-Package-Registry zu entfernen.

Mehr den Nutzern von Paketen als deren Entwicklern kommt zugute, dass Atom neuerdings das Verhalten von APIs ändert, über die Erweiterungen auf Ereignisse reagieren wie beispielsweise über TextBuffer.onDidChange, das Pakete über jede Textänderung im aktuellen Buffer informiert. Die Aufrufe erfolgt nun basierend auf Transaktionen, die jeweils eine Gruppe von Änderungen zusammenfasst, die als einheitlicher Schritt rückgängig gemacht werden können. Die Neuerung soll die Funktionsweise existierender Erweiterungen nicht beeinflussen.

Versteckte Befehle

Neu ist zudem die Möglichkeit, Befehle zwar in der Registry von Atom einzutragen, sie aber in der Command Palette zu verstecken. Dazu fügen Nutzer in den atom.command.add-Block den Befehl hideInCommandPalette: true ein. Nützlich ist die Neuerung vor allem für Befehle, die in erster Linie ein Tastenkürzel definieren. Die Issue-Seite[3] nennt als Beispiel "Vim Mode Plus: Set Input Char M".

Erwähnenswert ist noch, dass das GitHub-Package von Atom den Index nicht mehr sperrt, um index.lock-Fehler zu verhindern, wenn Nutzer Git-Befehle verwenden, während Atom im Hintergrund läuft. Weitere Details zu Atom 1.23 lassen sich dem Blogbeitrag[4] entnehmen. Die vollständige Liste der Neuerung findet sich in den Release Notes[5]. Letztere enthalten Links zum Source und plattformspezifischen Binaries des Open-Source-Editors.


URL dieses Artikels:
http://www.heise.de/-3916887

Links in diesem Artikel:
[1] https://www.heise.de/meldung/GitHub-Atom-Texteditor-bekommt-eine-Teamfunktion-3891301.html
[2] http://flight-manual.atom.io/hacking-atom/sections/handling-uris/
[3] https://github.com/atom/command-palette/pull/92
[4] http://blog.atom.io/2017/12/12/atom-1-23.html
[5] https://github.com/atom/atom/releases/tag/v1.23.0
[6] mailto:rme@ct.de

Copyright © 2017 Heise Medien

Let's block ads! (Why?)

✇ iX news ff.org

FHIR: Nur ein weiterer Standard oder die Zukunft im Gesundheitssektor?

Von heise online — 12. Dezember 2017 um 14:17

Im Gesundheitsbereich kommunizieren noch immer viel zu wenige Anwendungen miteinander, von den aufkommenden Fitness-Apps ganz zu schweigen. Der neue Standard FHIR soll das Chaos beenden.

Unterschiedliche Hersteller sorgen für einen Gerätezoo und abgekapselte Systeme im Gesundheitssektor – nun gesellen sich auch noch die Fitness-Apps der Verbraucher hinzu. Kurz: Ärzte und Krankenhäuser sehnen sich oft nach mehr Interoperabilität ihrer IT und verbundener Werkzeuge. Genau hier sollen die Fast Healthcare Interoperability Resources (FHIR) ansetzen, wie Thomas Kalippke in der aktuellen iX 12/2017 [1] schreibt.

Dabei gibt es im Gesundheitsbereich bereits einige Standards, doch bei FHIR handelt es sich um ein übergreifendes Paket. Es umfasst ein Datenmodell, Value Sets, Validierungswerkzeuge und Datenbanken sowie erste Beispielimplementierungen. Dank der standardisierten Formate soll der Patient sich nicht nur die klassische Krankschreibung auf dem Papier ersparen können, Ärzte sollen ebenso auf Daten aus Fitness-Trackern auf dem Smartphone zugreifen können.

Wie Entwickler FHIR in ihren Anwendungen einsetzen können und wie der Standard im Detail aufgebaut ist, finden Interessierte im Artikel.

Siehe dazu auch:

  • Ruhepuls: FHIR: Mehr Interoperabilität für den Gesundheitssektor [2], iX 12/2017, S. 114.


URL dieses Artikels:
https://www.heise.de/ix/meldung/FHIR-Nur-ein-weiterer-Standard-oder-die-Zukunft-im-Gesundheitssektor-3916360.html

Links in diesem Artikel:
  [1] https://www.heise.de/ix/heft/Ruhepuls-3892764.html
  [2] https://www.heise.de/ix/heft/Ruhepuls-3892764.html
  [3] mailto:fo@heise.de

Let's block ads! (Why?)

✇ iX news ff.org

heise-Angebot: KI-Konferenz: Programm der Minds Mastering Machines ist online

Von heise online — 12. Dezember 2017 um 13:28

zurück zum Artikel

KI-Konferenz: Programm der Minds Mastering Machines ist online

Ab sofort können sich Interessierte für die Fachkonferenz zu den Themen Machine Learning und künstliche Intelligenz registrieren, die im April in Köln stattfindet und sich in erster Linie an Softwareentwickler, Data Scientists und Forscher richtet.

Vom 24. bis 26. April 2018 feiert die Minds Mastering Machines[1] in Köln ihre deutsche Premiere. Die Fachkonferenz widmet sich den Themen Künstliche Intelligenz (KI) und Machine Learning (ML). Sie ist auf ein Fachpublikum ausgerichtet, das vor allem aus Softwareentwicklern und -architekten, Data Scientists, Projektleitern sowie Forschern besteht. Die Veranstalter haben das Programm nun veröffentlicht[2], das sich aus einer zweitägigen Hauptkonferenz mit 36 Vorträgen und einem Workshop-Tag zusammensetzt.

Da viele IT-Fachkräfte sich erst seit Kurzem mit dem Thema beschäftigen, richtet sich einer der drei Tracks explizit an Einsteiger, während bei den anderen beiden fortgeschrittene Themen und praktische Erfahrungen im Mittelpunkt stehen. Teilnehmer bekommen unter anderem eine Einführung in Deep Learning, einen Vergleich der unterschiedlichen ML-Frameworks, Methoden zum Bewerten von ML-Modellen und eine Vorstellung von Natural Language Processing. Ein allgemeiner Überblick über die Fachbegriffe mit einer Einordnung der unterschiedlichen Methoden fehlt ebenso wenig wie Vorträge über die Angebote der Cloud-Dienstleister und den Einsatz von GPUs.

Praktischer Einsatz und Ethik

Zahlreiche Vorträge widmen sich dem praktischen Einsatz von Methoden des Machine Learning von der Rechnungsprüfung über die Lagerlogistik bis hin zum Schutz von Hochleistungslasern. Selbstredend dürfen auch rechtliche und ethische Themen nicht fehlen. So widmet sich ein Talk der Frage, wie Maschinen zu Entscheidungen kommen, die den moralischen Normen entsprechen.

Ab sofort können sich Interessierte zur Minds Mastering Machines 2018 anmelden[3]. Bis zum 2. März gilt ein Frühbucherrabatt, mit dem sich der reguläre Preis der Konferenztickets von 930 auf 770 Euro reduziert. Die Workshops zu Deep Learning mit TensorFlow, Machine Learning mit Python und ML im Kontext der Industrie 4.0 kosten jeweils 450 Euro. Teilnehmer, die einen Workshop zusammen mit dem regulären Programm buchen, erhalten einen Rabatt von 50 Euro. Wer über den Fortgang der Konferenz auf dem Laufenden bleiben möchte, kann sich für den Newsletter[4] eintragen oder den Veranstaltern auf Twitter[5] folgen.

Die Veranstalter der Minds Mastering Machines sind heise Developer, iX und der dpunkt.verlag, die Teil der Heise Gruppe sind.


URL dieses Artikels:
http://www.heise.de/-3915811

Links in diesem Artikel:
[1] https://www.m3-konferenz.de/
[2] https://www.m3-konferenz.de/programm.php
[3] https://www.m3-konferenz.de/anmeldung.php
[4] https://www.m3-konferenz.de/benachrichtigen.php
[5] https://twitter.com/M3_Konferenz
[6] mailto:rme@ct.de

Copyright © 2017 Heise Medien

Let's block ads! (Why?)

✇ iX news ff.org

Q#: Microsofts Development Kit für Quantencomputing mit eigener Programmiersprache und Simulator

Von heise online — 12. Dezember 2017 um 10:58

zurück zum Artikel

Q#: Microsoft stellt Preview seines Development Kit für Quantencomputing vor

(Bild: Microsoft)

Mit der neuen, in Visual Studio integrierten Programmiersprache Q# will Microsoft Entwicklern die Programmierung von Quantencomputern vereinfachen. Die Preview des Quantum Development Kit steht ab sofort zur Verfügung.

Zur diesjährigen Unternehmenskunden-Konferenz Ignite hatte Microsoft-Chef Satya Nadella ausgiebig über die Aktivitäten des Konzerns in Sachen Quantencomputing gesprochen[1]. Die im September in Aussicht gestellte Testumgebung für Entwickler, die sich schon heute in die Programmierung auch zukünftiger Quantencomputer einarbeiten möchten, liegt ab sofort als Preview vor[2]. Das Quantum Development Kit[3] umfasst neben der neuen Programmiersprache Q# (sprich: Q sharp) einen Quantencomputer-Simulator sowie ergänzende Ressourcen für die Programmierung solcher Rechner.

Mit der neuen Entwicklungsumgebung will Microsoft auch Entwickler ansprechen, die sich nicht in die komplexen Tiefen der Quantenphysik einarbeiten wollen, um Quantencomputer programmieren zu können. Das Quantum Development Kit fügt sich dazu nahtlos in Visual Studio[4] ein und bietet damit eine vielen Entwicklern vertraute Umgebung. Der integrierte Simulator lässt sich lokal installieren und soll mit gängiger Notebook-Hardware auskommen. Entwicklern stehen damit immerhin 30 logical Qubits zur Verfügung, um erste Programme zu testen und zu debuggen. Wird eine leistungsfähigere Simulationsumgebung benötigt, stellt Microsoft einen weiteren Simulator in der Azure-Cloud parat, der mindestens 40 logical Qubits simulieren können soll.

In der vorliegenden Version eignet sich das Quantum Development Kit für die Programmierung aktuell verfügbarer Quantencomputer. Es soll aber ebenso das von Microsoft favorisierte Konzept[5] eines Quantencomputers auf Basis sogenannter topologischer Qubits unterstützen. Bis solche Systeme serienreif sind, sollen Wissenschaftler und Softwareentwickler Microsofts Entwicklungsumgebung primär als Spielfeld nutzen, um sich mit den Besonderheiten des Quantencomputings vertraut zu machen. „Wir hoffen, dass sie mit Effekten wie Quantenteleportation herumspielen und davon fasziniert sind“, erklärt Krysta Svore, die in Microsofts Quantencomputing-Team für die Entwicklung des Simulators und des Development Kits verantwortlich ist.


URL dieses Artikels:
http://www.heise.de/-3915895

Links in diesem Artikel:
[1] https://www.heise.de/meldung/Microsoft-Ignite-Neue-Version-von-Windows-Server-und-viel-Cloud-3841641.html
[2] https://blogs.microsoft.com/ai/2017/12/11/future-quantum-microsoft-releases-free-preview-quantum-development-kit
[3] https://www.microsoft.com/en-us/quantum/development-kit
[4] https://www.heise.de/meldung/Visual-Studio-15-5-ist-erschienen-3908577.html
[5] https://www.heise.de/tp/features/Microsoft-will-den-Quantencomputer-demokratisieren-3502338.html
[6] mailto:map@heise.de

Copyright © 2017 Heise Medien

Let's block ads! (Why?)

✇ iX news ff.org

Digitale Identität verwalten: Sicherheitsspezialist Giesecke+Devrient tritt Identitätsplattform Verimi bei

Von heise online — 12. Dezember 2017 um 10:12

zurück zum Artikel

heise online
Schlüssel, Schlüsselübergabe, Sicherheit

(Bild: mastersenaiper, gemeinfrei (Creative Commons CC0) )

Deutsche Unternehmen haben die Verwaltung der digitalen Identität als Markt ausgemacht, in dem sie dem Silicon Valley Paroli bieten können. Ein Service soll im Frühjahr starten und Autorisierungsdiensten etwa von Google oder Facebook Konkurrenz machen.

Die Identitätsplattform Verimi großer deutscher Konzerne bekommt einen Neuzugang mit Erfahrung bei Sicherheitstechnologie. Als zehntes Mitglied trat die Firma Giesecke+Devrient Verimi bei[1], die unter anderem stark im Geschäft mit Sicherheitschips für Bankkarten oder SIM-Modulen in Handys ist.

Testphase

Die Idee hinter Verimi[2] ist eine Art Generalschlüssel für Web-Dienste: Der Nutzer registriert sich bei der Plattform und kann sich damit bei verschiedenen Anbietern einloggen. Verimi setzt als Grundlage für die Identitätsplattform auf das offen Protokoll OAuth 2.0[3], ein SDK mit zugehörigen Dokumentationen[4] liegt bereits vor, die API steht Entwicklern frei zur Verfügung.

Unter den Verimi-Mitgliedern sind die Allianz, Daimler, der Medienkonzern Springer, die Deutsche Bank, die Bundesdruckerei, die Deutsche Telekom und die Lufthansa. Außerdem dabei sind der IT-Spezialist Core sowie der Kartendienst Here, der den deutschen Autobauern Audi, BMW und Daimler gehört. Am Montag wurde in Berlin offiziell der Gesellschaftervertrag unterzeichnet.

Seit Anfang Dezember wird eine Vorversion der Log-In-Funktion in einem Pilotprojekt mit einer geschlossenen Nutzergruppe getestet, wie Verimi mitteilte. Daran nähmen unter anderem die Deutsche Bank, der Fußball-Verein Eintracht Frankfurt sowie Start-ups teil. Die Markteinführung ist für Frühjahr 2018 geplant. Verimi spricht von einer gemeinsamen Registrierungs-, Identitäts- und Datenplattform. Das Kunstwort "Verimi" ist angelehnt an die englischen Begriffe verify (prüfen) und me (mich).

US-Konkurrenz

In Deutschland gibt es auch eine Log-In-Allianz um die Fernsehkonzerne RTL und ProSiebenSat.1 sowie United Internet (web.de, GMX). Die Plattformen wollen einen europäischen Gegenpol zu US-Schwergewichten wie Facebook, Google oder Twitter bieten, die ebenfalls die Identifikation über verschiedene Dienste hinweg anbieten.

In Europa gibt es immer wieder Kritik an der Dominanz von Daten-Plattformen aus den USA im Internet. Verimi betont, dass man von Beginn an die Anforderungen der EU-Datenschutzgrundverordnung umsetzen werde, die im Mai Pflicht werden. "Mit der abschließenden Unterzeichnung der Verträge kommen wir der Vision einer europäischen, offenen und branchenübergreifenden Identitätsplattform einen großen Schritt näher", betonte Verimi-Chefin Donata Hopfen. (dpa) /


URL dieses Artikels:
http://www.heise.de/-3915898

Links in diesem Artikel:
[1] https://www.presseportal.de/pm/128971/3812894
[2] https://www.heise.de/meldung/Deutsche-Datenplattform-Verimi-fordert-Google-Co-heraus-3814139.html
[3] https://www.heise.de/developer/artikel/Flexible-und-sichere-Internetdienste-mit-OAuth-2-0-2068404.html
[4] https://verimi.de/sandbox/html/sdk.html
[5] mailto:jk@ct.de

Copyright © 2017 Heise Medien

Let's block ads! (Why?)

✇ iX news ff.org

Virtual Reality: Bundesverband Digitale Wirtschaft eröffnet Wissensplattform für Unternehmen

Von heise online — 08. Dezember 2017 um 10:39

zurück zum Artikel

heise online
Virtual Reality

(Bild: dpa, Oliver Berg)

Der Bundesverband Digitale Wirtschaft will Virtual- und Mixed-Reality-Systeme mit einer Wissensplattform fördern. Damit wollen sie Möglichkeiten für die professionelle Anwendung der Technik aufzeigen.

Der Bundesverband Digitale Wirtschaft (BVDW)[1] hat eine Wissensplattform für Virtual- und Mixed-Reality-Anwendungen[2] online gestellt. Die Initiative richtet sich vor allem an Unternehmen und will Möglichkeiten für den professionellen Einsatz der neuen Techniken erschließen und aufzeigen. Noch vor gar nicht langer Zeit galt 2017 als das Jahr des Durchbruchs für Virtuelle Realität, aber dazu kam es bisher nicht. "Alle warten noch immer auf den "iPhone-Moment", doch die überschwängliche Begeisterung ist bislang ausgeblieben", sagte Jonas Larbalette, VR-Experte des Partners MediaCom.

Ob es nun um Mixed Reality, Virtual oder Augmented Reality[3] geht, die Plattform will die verschiedenen Anwendungsmöglichkeiten sammeln und der Öffentlichkeit zugänglich machen. Ein Projekt lässt sich mit wenig Aufwand einstellen und steht dann allen Interessenten als Beispiel zur Verfügung. Dadurch entsteht eine zentrale Instanz, die Umsetzungen sammelt, klassifiziert und als eine gemeinsame Diskussions- und Inspirationsgrundlage bildet.

Potenzial im Unternehmen noch nicht genutzt

Gerade im Unternehmenseinsatz wird der Technik nach wie vor großes Potenzial zugesprochen. Dabei dürften sich Lösungen für virtuelle Realität, bei der der Nutzer über ein Headset komplett in eine künstliche Welt eintaucht, vor allem im Trainingssektor und zur Überbrückung geografischer Distanzen eingesetzt werden, schätzt Tobias Lucas vom Beratungshaus Accenture. Augmented Reality, bei der in die reale Umgebung virtuelle Gegenstände eingefügt werden, werde sich künftig jedoch ein deutlich größeres Einsatzfeld erschließen. (dpa) /


URL dieses Artikels:
http://www.heise.de/-3913806

Links in diesem Artikel:
[1] https://www.bvdw.org/
[2] http://realitiesoftheworld.de/
[3] https://www.heise.de/ct/artikel/Warum-Microsoft-seine-VR-Brillen-Mixed-Reality-nennt-3820657.html
[4] mailto:bbo@ix.de

Copyright © 2017 Heise Medien

Let's block ads! (Why?)

✇ iX news ff.org

CloudNativeCon/KubeCon: Alle lieben Kubernetes

Von heise online — 08. Dezember 2017 um 09:35

Auf der KubeCon geben Unternehmen gerne ihre neuen Veröffentlichungen aus dem Umfeld von Containerisierung und Microservices bekannt. Dazu gehören Kubernetes 1.9 und das Microservice-Framework Metaparticle von Microsoft.

Inzwischen zum vierten Mal veröffentlicht die Cloud Native Foundation (CNCF) in diesem Jahr eine neue Release ihres Kernprojekts Kubernetes. Allerdings haben sie es nicht ganz fertiggebracht, Version 1.9 auf ihrer KubeCon in Austin (6.-8. Dezember) vorzustellen, das angepeilte Verfügbarkeitsdatum ist der 13. Dezember. Bedingt durch die kurze Zeit seit der letzten Release [1] hält sich die Zahl der Neuerungen diesmal in Grenzen. Nennenswert ist die Workload API, die DaemonSets, Deployments, ReplicaSets und StatefulSets zusammenbringt. Außerdem erhält Kubernetes on Windows Beta-Status

Immer mehr Firmen unterstützen die Entwicklungen der CNCF und insbesondere von Kubernetes. 34 neue Sponsoren kann die Stiftung vermelden, darunter HPE, NGINX und Grafana Labs mit Silber-Status. Die chinesische Suchmaschine Baidu erhält den Rang als Gold-Member. Das gleiche gilt für Salesforce und für JFrog, die zudem ihre Software Artifactory zum Verwalten von CI-Servern als Open-Source-Variante zur Verfügung stellen wollen. Zum Platin-Mitglied steigt Alibaba-Cloud auf.

Produktreife

Etliche Projekte, die rund um Container, Microservices und Kubernetes entstanden sind, konnten auf der Konferenz eine runde Versionsnummer bekanntgeben.

Containerd [2], das Docker vor einem Jahr in ein eigenständiges Produkt umgewandelt und im März an die CNCF übergeben hat, hat Version 1.0 erreicht. Seit Version 1.8 kann Kubernetes Containerd direkt als Container-Runtime verwenden, ohne die vollständigen Docker-Tools einzubinden.

Zur Überwachung komplexer Systeme aus Microservices hat Uber Jaeger [3] entwickelt, das auf der KubeCon in Version 1.0 angekündigt wurde. Das Tracing-Werkzeug konnte ursprünglich nur die Schnittstellen bedienen, die Uber selbst benötigte. Das möchte man jetzt öffnen und implementiert Backend-Anbindungen nicht nur an Cassandra, sondern auch zum Beispiel ElasticSearch. Angedacht ist zudem MySQL, ScyllaDB und InfluxDB.

Vereinheitlichtes Logging soll Fluentd [4] ermöglichen, das ebenfalls Versionstand 1.0 erreicht. Darin soll unter anderem die Anbindung an Prometheus und Apache Kafka flüssig laufen. Auch läuft es jetzt unter Windows und ermöglicht Authentifizierung über sein Protokoll.

Fast fertig

Buoyant, eigentlich bekannt für Linkerd [5], hat mit Conduit [6] ein neues Werkzeug zum Verwalten von Services mit Kubernetes vorgestellt. Das "Ultraleight Service Mesh" besteht im Kern aus einem Proxy, der lediglich 10 MByte Speicher belegt und sich durch eine geringe Latenz auszeichnet. Auf der anderen Seite bringt es nur einen minimalen Satz an Funktionen, die sich allerdings über gRPC-Plugins erweitern lassen.

Microsoft nützte die Gelegenheit, um zu demonstrieren, wie sich Azure Container Instances [7] in Kubernetes einbinden lassen und gab einen Vorgeschmack auf ihre eigenes Kubernetes-Angebot (AKS). [8] Zudem stellten die Verantwortlichen das Microservice-Framework Metaparticle [9] vor, das mit Blick auf den Einsatz unter Kubernetes entwickelt wurde. Gegenwärtig bietet es JavaScript, Java und .NET.

Kubernetes nicht mehr selber verwalten müssen

Interessantes bietet auch der Markt rund um Managed Kubernetes. EasyStack bietet mit EasyStack Kubernetes Service ein Managed Kubernetes, das sie mit Dienstleistungen rund um die (Open-Stack)-Cloud anreichern. Über das Browser-Interface sollen sich typische DevOps-Aufgaben erledigen oder einfach Software aus dem Application Markeplace im Cluster starten lassen.

Das Hamburger Start-up Loodse [10] bietet mit seiner Kubermatic Container Engine ebenfalls ein "Managed Kubernetes". Das Werkzeug soll helfen, Kubernetes Cluster mehr oder weniger automatisiert zu verwalten. Sie gaben in Austin die Verfügbarkeit von Version 2.0 ihres Tools bekannt. Das automatisiert das Setup von Kubernetes unter anderem in der Infrastruktur von Microsoft Azure, TelekomCloud, Google Cloud Platform, Huawei und OpenStack. Dort installiert es Kubernetes 1.8, wofür es auch zertifiziert ist. Mit Kubermatic 2.0 aufgesetzte Cluster lassen sich zudem relativ einfach horizontal skalieren.

Im Rahmen der Konferenz gab die CNCF Ergebnisse einer Umfrage zum Einsatz von Kubernetes bekannt. Zwar dominiert es den Markt der Containerorchestrierer eindeutig, die Zahlen entwickeln sich aber nicht mehr so drastisch wie kurz nach der Veröffentlichung der Software. Immer noch relevant sind Docker Swarm und Mesos. Auch Shell Skripte wurden häufig als Werkzeug genannt. Der Einsatzort verschiebt sich leicht vom eigenen Rechenzentrum in die Cloud, wo Amazon und Google klar die wichtigsten Anbieter sind. Gerade größere Unternehmen (mit mehr als 250 Mitarbeitern) setzen Kubernetes inzwischen auch im Produktivbetrieb ein. Als prominente Beispiele nennt die CNCF das Mitfahrerportal BlaBlaCar und das AR-Spiel Pokémon Go [11].


URL dieses Artikels:
https://www.heise.de/ix/meldung/CloudNativeCon-KubeCon-Alle-lieben-Kubernetes-3913368.html

Links in diesem Artikel:
  [1] https://www.heise.de/ix/meldung/Clusterverwaltung-Kubernetes-1-8-erschienen-3846117.html
  [2] https://containerd.io/
  [3] https://uber.github.io/jaeger/
  [4] https://www.fluentd.org/
  [5] https://linkerd.io/
  [6] https://conduit.io/
  [7] https://www.heise.de/ix/meldung/Azure-Container-Instances-startet-einzelne-Container-in-der-Microsoft-Cloud-3785149.html
  [8] https://azure.microsoft.com/de-de/blog/introducing-azure-container-service-aks-managed-kubernetes-and-azure-container-registry-geo-replication/?cdn=disable
  [9] https://github.com/brendandburns/metaparticle
  [10] https://www.loodse.com/
  [11] https://www.heise.de/ix/meldung/Pokemon-Go-Neue-Monster-echtes-Wetter-3911447.html
  [12] mailto:jab@ix.de

Let's block ads! (Why?)

✇ iX news ff.org

heise-Angebot: Continuous Lifecycle London: Programm ist online

Von heise online — 08. Dezember 2017 um 09:13

zurück zum Artikel

Continuous Lifecycle London: Programm ist online

Die englischssprachige Ausgabe der Continuous Lifecycle findet 2018 zum dritten Mal statt. Vom 15. bis 18. Mai 2018 können Interessierte Einblick in die Anforderungen von Continuous Delivery erlangen und von den Erfahrungen der Sprecher profitieren.

Die englischsprachige Continuous Lifecycle findet vom 15. bis 18. Mai zum dritten Mal in London statt. Das Programm ist online verfügbar[1] und dreht sich hauptsächlich um Continuous Delivery, Continuous Integration, DevOps und Container. Austragungsort der Konferenz für Softwareentwickler und Administratoren ist wie im vergangenen Jahr auch das QEII Centre in London. Bis Ende Februar können Besucher noch von vergünstigten Frühbuchertickets profitieren[2].

Im Kern des Programms stehen in diesem Jahr vor allem Lektionen, die die Sprecher in ihrer bisherigen Erfahrung mit Continuous Delivery gesammelt haben.Teilnehmer der Konferenz erfahren beispielsweise, was der Einsatz von Microservices in einem Fin-Tech-Unternehmen bedeutet, wie die Financial Times A/B-Tests durchführt und wie man allgemein mit den Schwierigkeiten einer kontinuierlichen Entwicklung mit immer kürzeren Releasezyklen umgeht. Andere Themen sind ganz allgemein auch die Cloud, Container, Kubernetes, Microservices und Sicherheitsfragen.

Mit Linda Rising[3] und Alexis Richardson[4] konnte die Konferenz auch in diesem Jahr wieder spannende Keynote-Sprecher gewinnen. Die ersten Workshops zu Themen wie Continuous Delivery[5], Microservices[6] und Influence Strategies for Practicioners (Linda Rising)[7] sind ebenfalls bereits buchbar.


URL dieses Artikels:
http://www.heise.de/-3913740

Links in diesem Artikel:
[1] https://continuouslifecycle.london/agenda-and-speakers/conference-sessions/
[2] https://continuouslifecycle.london/
[3] https://continuouslifecycle.london/speakers/linda-rising/
[4] https://continuouslifecycle.london/speakers/alexis-richardson-ceo-of-weaveworks-and-toc-chair-for-cncf/
[5] https://continuouslifecycle.london/sessions/workshop-continuous-delivery-theory-technology-and-practice/
[6] https://continuouslifecycle.london/sessions/microservice-alternatives-rest-kubernetes-ui-integration-and-asynchronous-integration/
[7] https://continuouslifecycle.london/sessions/workshop-influence-strategies-for-practitioners/
[8] mailto:bbo@ix.de

Copyright © 2017 Heise Medien

Let's block ads! (Why?)

✇ iX news ff.org

Qt 5.10 erweitert die Steuerelemente und setzt auf Vulkan

Von heise online — 07. Dezember 2017 um 17:04

zurück zum Artikel

Qt 5.10 erweitert die Steuerelemente und setzt auf Vulkan

Das aktuelle Qt-Release ist das erste, das mit Vulkan zusammenarbeitet. Außerdem lassen sich Qt Quick Controls 2 individuell mit grafischen Vorlagen gestalten, und Qt Quick lernt Multi-Touch-Gesten.

Nach einer knapp zweimonatigen Betaphase hat das Qt-Team nun Version 5.10 der C++ Klassenbibliothek veröffentlicht. Zu den Neuerungen gehören einige Erweiterungen der Qt Quick Controls 2, die nun eine einfache Möglichkeit bieten, Grafiken direkt als Steuerelemente darzustellen. Qt Quick bringt ein Plug-in zum Einfügen beliebiger Formen und Klassen zum Behandeln von Mulit-Touch-Gesten. Nicht zuletzt hat Qt 5.10 nun sogenannte Vulkan Enablers, die eine Schnittstelle zum OpenGL-Nachfolger der Khronos Group an Bord.

Qt 5.10 bringt dazu einige Klassen, deren Namen mit QVulkan starten. Die Basis ist die Instanz QVulkanInstance. Sollte das Erstellen mit QVulkanInstance::create() fehlschlagen und false zurückliefern, bietet das System zur Laufzeit keine Vulkan-Schnittstelle. Die QVulkan-Klassen bieten einen plattformübergreifenden Zugang direkten zur Vulkan-API, sind aber explizit keine zusätzliche Abstraktionsschicht. Außerdem ist der Zugriff derzeit begrenzt: QWindows können mit den QWidget-basierten UIs in derselben Art kombiniert werden wie mit OpenGL-basierten Fenstern. Allerdings lassen sich einige Module noch nicht mit Vulkan-Rendering kombinieren, darunter Qt Quick, Qt 3D und Qt Canvas 3D.

Steuerelemente aus dem Grafikprogramm

Die Qt Quick Controls 2 bieten nun zwei neue Stiltypen: Imagine Style baut direkt auf Grafiken auf, und Fusion Style orientiert sich stilistisch an der Zielplattform. Für ersteren Stil automatisiert Qt die Integration der passenden Elemente durch entsprechende Dateinamen. Designer legen fest, wie sich die Elemente bei der Größenänderung verhalten und finden zu Qt 5.10 Asset-Vorlagen für Photoshop, Illustrator und Sketch. Außerdem enthalten die Qt Quick Controls 2 die neuen Elemente Action, ActionGroup und MenuBar.

Die Stile Imagine und Fusion für Qt Quick Controls 2.
Die Stile Imagine und Fusion für Qt Quick Controls 2.

Qt Quick bekommt in Version 5.10 der Klassenbibliothek ein Shapes-Plug-in, über das sich beliebige Formen in Szenen integrieren lassen. Außerdem verbessern die Qt Quick Pointer Handlers den Umgang mit Multi-Touch. Die meisten davon haben selbsterklärende Namen wie der PinchHandler, der DragHandler oder der TapHandler. Darüber hinaus gibt es einen MultiPointHandler, der als abstrakte Grundlage für das Behandeln von Multi-Touch-Events dient.

Auch Qt 3D bringt einige Neuerungen, die Qt wohl vor allem der Zusammenarbeit mit KDAB zu verdanken hat. Neben neuen Knotentypen gibt es nun die Möglichkeit, Inhalte aus Qt 3D in Qt Quick Scene einzubetten. Grundsätzlich hat das Qt-3D-Team derzeit aber weniger neue Features im Sinn und will sich stattdessen auf eine Verbesserung der Performance und eine Verringerung des Speicherbedarfs konzentrieren.

Embedded-Entwicklung

Einige Neuerungen sind vor allem im Embedded-Umfeld interessant. So hat die virtuelle Tastatur einige neue Sprachen inklusive Handschrifterkennung an Bord, unter anderem Arabisch, Chinesich, Japanisch und Koreanisch. Neue Layouts bringt Qt Virtual Keyboard 2.3 unter anderem für Hebräisch, Griechisch und Ungarisch. Außerdem lässt sich die Tastatur nun passend zum Nutzerinterface skalieren, und sie unterstützt beim Schreiben mit Wortvorschlägen und eine Vorschau für Zeichen und Alternativen dazu.

Das auf den Automatisierungssektor ausgerichtete Qt for Automation, das die Qt Company im August vorgestellt hatte[1], arbeitet auch mit Qt 5.10 zusammen, sodass sich nun unter anderem das im Internet der Dinge verbreitete MQTT-Protokoll verwenden lässt.

Des Qt Kern und frische Module

Auch im Kernpaket Qt Core gibt es einige nennenswerte Neuerungen. So ist die QStringView-Klasse ein Pendant zu std::string_view aus der Standardbibliothek. Zwar fehlen noch einige const-Funktionen, aber die will die Qt Company in Qt 5.11 nachreichen. Als weitere Ergänzungen enthält QtCore den Zufallszahlengenerator QRandomGenerator und einen KeyValueIterator.

Das Modul Qt Netwok Authorization, das Autorisierung über das Protokoll OAuth (Open Authorization) in Version 1 und 2 bietet, hat nun ebenso die Preview-Phase verlassen wie das Sprachsynthesemodul Qt Speech, das erstmals in Qt 5.8[2] in der Bibliothek enthalten war. Beide Module sind nun als vollwertige Pakete Bestandteil von Qt 5.10

Weitere Details lassen sich dem Blogbeitrag[3] entnehmen, der es nicht auslässt zunächst das frisch erschienene[4] Qt 3D Studio zu bewerben, das mit der eigentlichen Klassenbibliothek nur am Rande zu tun hat.


URL dieses Artikels:
http://www.heise.de/-3913336

Links in diesem Artikel:
[1] https://www.heise.de/meldung/Cross-Plattform-Entwicklung-Qt-adressiert-den-Automatisierungssektor-3799662.html
[2] https://www.heise.de/meldung/Qt-5-8-enthaelt-ein-Text-to-Speech-Modul-3603598.html
[3] http://blog.qt.io/blog/2017/12/07/qt-5-10-released/
[4] https://www.heise.de/meldung/Cross-Platform-Entwicklung-Qt-3D-Studio-1-0-erschienen-3905810.html
[5] mailto:rme@ct.de

Copyright © 2017 Heise Medien

Let's block ads! (Why?)

✇ iX news ff.org

Cyberkrimi: Neue SWIFT-Regeln gegen digitale Bankraubzüge

Von heise online — 07. Dezember 2017 um 14:10

Nach einem sensationellen Angriff mit 81 Millionen US-Dollar Beute hat die SWIFT neue Regeln für Finanzdienstleister erarbeitet. Ein Artikel der aktuellen iX geht auf die Hintergründe des CSP ein.

Ein spektakulärer Raubzug konnte nur noch durch manuelle Kontrollen verhindert werden, doch trotzdem erbeuteten Cyberkriminelle im Februar 2016 noch immer rund 81 Millionen US-Dollar. Glück im Unglück, denn wie André Clerc in der aktuellen iX 12/2017 [1] schreibt, hatten es die schweren Jungs auf über 950 Millionen US-Dollar vom Konto der Bangladesh Bank bei der Federal Reserve Bank of New York abgesehen.

Was eigentlich nach einem Remake des dritten Stirb Langsam für das digitale Zeitalter klingt, sollte im Laufe des Jahres immer wieder vorkommen. Kriminelle nutzten Schwächen der bankseitigen Komponenten aus, um gefälschte Zahlungsaufträge in das System der SWIFT einzuschleusen. Nach dem Einstieg in die IT eines Finanzinstituts folgte das Ergattern von Nutzerdaten eines Mitarbeiters; die gefälschten Aufträge erschienen dank eines manipulierten PDF-Programms wie echte.

Neues Customer Security Programme

Bei solchen Summen und einer eigentlich auf ihre Sicherheit peinlich bedachten Branche zauderte die SWIFT nicht lange: Die eigenen Systeme blieben zwar unangetastet – aber da die Angreifer einfach die schwächsten Glieder der Kette ausnutzen können, rief die SWIFT das für alle Inhaber eines BIC 8 geltende Customer Security Programme (CSP) ins Leben.

Konkret orientieren sich die Sicherheitskontrollen an internationalen Standards, doch viele Unternehmen dürften zur Umsetzung dennoch Zeit brauchen. Hierbei lohnt sich in jedem Fall, nicht nur wie gefordert die an das System der SWIFT angeschlossene Infrastruktur zu sichern, sondern die gesamte hauseigene IT auf einen Stand zu bringen.

Aber nicht nur Maßnahmen der internen IT stehen an, auch will die SWIFT sicherstellen, dass alle Unternehmen stärker für den Fall eines Angriffs planen, letztere erkennen können und vor allem Informationen zu Attacken austauschen. Interessierte und Betroffene finden im Artikel mehr Details zum CSP, dem Customer Security Controls Framework und dem anvisierten Zeitrahmen ihrer Umsetzung.

Siehe dazu auch:

  • Unbezahlbar: Neue SWIFT-Regeln für Finanzdienstleister [2], iX 12/2017, S. 104.


URL dieses Artikels:
https://www.heise.de/ix/meldung/Cyberkrimi-Neue-SWIFT-Regeln-gegen-digitale-Bankraubzuege-3911524.html

Links in diesem Artikel:
  [1] https://www.heise.de/ix/heft/Unbezahlbar-3892725.html
  [2] https://www.heise.de/ix/heft/Unbezahlbar-3892725.html
  [3] mailto:fo@heise.de

Let's block ads! (Why?)

✇ iX news ff.org

Angular 5.1 zusammen mit Angular Material 5.0.0 erschienen

Von heise online — 07. Dezember 2017 um 09:11

zurück zum Artikel

Angular 5.1 verbessert den Umgang mit UI-Komponenten

Als Grundlage für Angular Material dient Googles Material Design. Außer den 30 UI-Komponenten, die im Basisset enthalten sind, können Entwickler mit Angular CDK eigene Komponenten erstellen.

Das nun erschienene Webentwicklungs-Framework Angular 5.1 weist im Hauptpaket lediglich kleinere Neuerungen und Bugfixes auf. Spannender ist, dass das Team gleichzeitig nach zahlreichen Alpha- und Betaversionen sowie drei Release Candidates nun Angular Material und Angular Component Dev Kit (CDK) in Version 5.0.0 veröffentlicht hat. Damit halten UI-Komponenten, die auf der von Google entwickelten Designsprache Material Design[1] aufbauen, Einzug in das Framework für Webanwendungen. Außerdem arbeitet Angular nun mit TypeScript 2.5 zusammen. Die Macher empfehlen das Update aufgrund der hilfreichen neuen Funktionen, aber TypeScript 2.4 lässt sich weiterhin verwenden.

Angular Material[2] bietet 30 vorgefertigte UI-Komponenten aus den Kategorien[3] Formulare, Navigation, Layout, Buttons, Pop-up-Dialoge und Datentabellen. Angular CDK[4] bietet zahlreiche Bausteine, um individuelle Komponenten zu erstellen. So dient beispielsweise als Vorlage für eine Datentabelle mit dynamischen Spalten und Zugriff auf die DOM-Struktur (Document Object Model), die Entwickler über eigene Funktionen zum Sortieren oder vorgegebenen Seitenumbrüchen erweitern können. Außerdem bietet Angular CDK Vorlagen zum Steuern von Komponenten wie das -Paket, um auf Ereignisse zu reagieren.

Service Worker über die CLI

Auch das Command-line Interface (CLI) hat eine Überarbeitung bekommen: CLI 1.6 bietet Support für die in Angular 5 eingeführten Implementierung der Service Worker, also in JavaScript verfasste Proxys. Das Paket lässt sich mit Yarn über yarn add @angular/service-worker herunterladen und in der CLI mit ng set apps.D.serviceWorker=true aktivieren. Anschließend können Entwickler das ServiceWorkerModule in ihr Projekt importieren und dort registrieren.

Darüber hinaus haben die Macher die Steuerung von Angular Universal, welches das Rendern einer Angular-Anwendung auf dem Server ermöglicht, über das CLI verbessert. Über ng generate universal können Entwickler ihre Anwendung als Universal-Modul mit einem individuellen Namen, den sie in die spitzen Klammern statt "name" eintragen registrieren.

Weitere Neuerungen wie der Application-Shell-Support im CLI lassen sich dem Angular-Blog[5] entnehmen. Die komplette Liste der Änderungen findet sich im Changelog[6] auf GitHub.

Siehe dazu auf heise Developer:

  • Die Neuerungen in Angular 5[7]


URL dieses Artikels:
http://www.heise.de/-3911729

Links in diesem Artikel:
[1] https://material.io/
[2] https://material.angular.io/
[3] https://material.angular.io/components/categories
[4] https://material.angular.io/cdk/categories
[5] https://blog.angular.io/angular-5-1-more-now-available-27d372f5eb4e
[6] https://github.com/angular/angular/blob/master/CHANGELOG.md
[7] https://www.heise.de/developer/artikel/Die-Neuerungen-in-Angular-5-3891311.html
[8] mailto:rme@ct.de

Copyright © 2017 Heise Medien

Let's block ads! (Why?)

✇ iX news ff.org

Forschungsprojekt Auditor: Zertifizierung für die Datenschutz-Cloud

Von heise online — 06. Dezember 2017 um 14:06

Mit dem Projekt Auditor wollen Partner aus Forschung und Wirtschaft eine neue Zertifizierung für Cloud-Dienste entwickeln. Sie soll insbesondere den Vorgaben der 2018 in Kraft tretenden EU-DSGVO genügen.

Unter dem Namen Auditor [1] erblickt ein neues Projekt das Licht der Welt, das Cloud-Angebote EU-weit hinsichtlich des Datenschutzes standardisiert zertifizieren soll. An ihm sind zehn deutsche Unternehmen und Forschungseinrichtungen beteiligt, Die Professoren Alexander Roßnagel und Ali Sunyaev von der Universität Kassel leiten das Vorhaben.

Konkret handelt es sich um ein auf zwei Jahre ausgelegtes Förderprojekt, mit Mitteln des Bundesministeriums für Wirtschaft und Energie (BMWi). Als Ziel haben sich die Beteiligten gesetzt, dass Auditor alle relevanten Aspekte eines Cloud-Dienstes, darunter Zuständigkeiten, Transparenzpflichten, Haftung und Kontrollmechanismen, beachten soll. Basis stellt die am 25. Mai 2018 in Kraft tretende EU-DSGVO dar. Nach Auslaufen des Projekts soll Auditor nach einer Prüfung auf seine Praxistauglichkeit dem Markt zur Verfügung stehen.

Vergleichbarkeit von Cloud-Angeboten

Unternehmenskunden sollen von einer verbesserten Transparenz und Vergleichbarkeit der Cloud-Angebote profitieren. Hinzu kommt, dass sie so externe Dienste rechtssicher einsetzen können, da sie sich sicher sein können, dass die Anbieter durch technische und organisatorische Maßnahmen die Anforderungen an den Datenschutz garantieren.

Die Anbieter selbst sollen hingegen durch die Zertifizierung das Vertrauen potentieller Kunden erlangen. Entsprechend sind an dem Projekt mehrere Cloud-Provider wie ecsec oder Cloud&Heat Technologies, aber auch der Verband EuroCloud Deutschland_eco e.V. und der DIN-Normenausschuss Informationstechnik und Anwendungen (NIA), DIN e.V. beteiligt.

Ein Artikel in der iX 8/2017 [2] fasst die neuen Pflichten für Unternehmen zusammen, die die DSGVO und das neue Bundesdatenschutzgesetz ab Mai 2018 bringen:

  • Neues Bundesdatenschutzgesetz ergänzt EU-Grundverordnung [3], iX 8/2017, S. 90.


URL dieses Artikels:
https://www.heise.de/ix/meldung/Forschungsprojekt-Auditor-Zertifizierung-fuer-die-Datenschutz-Cloud-3911096.html

Links in diesem Artikel:
  [1] http://auditor-cert.de/
  [2] https://www.heise.de/select/ix/2017/8/9999980000002029
  [3] https://www.heise.de/ix/heft/Frisch-gestaerkt-3780463.html
  [4] mailto:fo@heise.de

Let's block ads! (Why?)

✇ iX news ff.org

IBM: POWER9-Server zu Weihnachten

Von heise online — 06. Dezember 2017 um 13:27

Könnte unterm Weihnachtsbaum liegen: IBMs POWER9-System AC922.

(Bild: IBM)

Pünktlich zu Weihnachten könnte IBMs erstes POWER9-System erhältlich sein. PCIe 4.0 und NVLink 2.0 bieten in dem auf Rechenleistung optimierten System hohe Bandbreite für Beschleunigerkarten.

Zum Jahresende hat IBM die allgemeine Verfügbarkeit der ersten POWER9-Systeme AC922 angekündigt. Geplant ist der 22. Dezember 2017 für die allgemeine Verfügbarkeit. Die Server besitzen zwei CPU-Sockel und können zusätzliche Beschleuniger über mehrere Schnittstellen anbinden.

IBM liefert die POWER9-Prozessoren mit jeweils 16 oder 20 Kernen bei 2,6 beziehungsweise 2,0 GHz. Es lässt sich bis zu 1 TByte RAM installieren. Zur Beschleunigung können zwei oder vier NVidia Tesla V100 GPUs per NVLink 2.0 angesprochen werden. Die NVLink-Schnittstelle trägt den Namenszusatz Next Generation. Ob es sich dabei um die von NVidia im September versprochene nächste Generation mit Cache-Kohärenz [1] handelt, geht aus den Datenblättern [2] nicht hervor.

Für Erweiterungen stehen zudem 4 PCIe-4.0-Plätze zur Verfügung, drei davon sind "CAPI enabled". Einen Großteil des Performancezuwachs im Vergleich zu älteren x86- sowie POWER8-Systemen machen diese schnelleren Schnittstellen aus, die Probleme von Spezialhardware lösen lassen. Gerade NVLink 2.0 bietet die 9,5-fache Datenübertragungsrate von PCIe 3.0. IBMs Benchmarks zum Trainieren von neuronalen Netzen [3] ergaben gegenüber den PCIe-3.0-Referenzsystemen eine Beschleunigung um den Faktor 3,8.

Storage findet in zwei Small-Form-Factor-Buchten Platz. Der integrierte SATA-Controller bietet kein RAID. Optional lassen sich die Server mit PCIe-3.0-Adaptern Connect-X für EDR-InfiniBand (100-GBit/s) und 100-Gigabit-Converged-Ethernet ausstatten, die Mellanox im Rahmen der OpenPOWER-Initiative beisteuert. Ganz im Geiste der Strategie Linux first [4] gibt es das AC922 erst nur mit Red Hat Enterprise Linux (RHEL) gegenwärtig in Version 7.4.

POWER9-Technik steckt auch in den HPC-Systemen Summit und Sierra [5], die IBM am Oak Ridge National Laboratory beziehungsweise am Lawrence Livermore National Laboratory (LLNL) im Rahmen des CORAL-Projekts (Collaboration of Oak Ridge, Argonne and Livermore) baut. Sie sollen die beiden Supercomputer Titan und Sequoia ablösen, die in der Supercomputing-TOP500 Platz fünf und sechs belegten. Die zwei Systeme sollen ihren Dienst noch 2018 aufnehmen.


URL dieses Artikels:
https://www.heise.de/ix/meldung/IBM-POWER9-Server-zu-Weihnachten-3910888.html

Links in diesem Artikel:
  [1] https://www.heise.de/meldung/OpenPOWER-Server-fuer-Big-Data-und-HPC-von-IBM-3315139.html
  [2] https://www-01.ibm.com/common/ssi/rep_ca/7/877/ENUSZG17-0147/ENUSZG17-0147.PDF
  [3] http://www-03.ibm.com/press/us/en/pressrelease/53452.wss#_ednref2
  [4] https://www.heise.de/ix/heft/Kompromisslos-offen-3807239.html
  [5] https://energy.gov/articles/department-energy-awards-425-million-next-generation-supercomputing-technologies
  [6] mailto:jab@ix.de

Let's block ads! (Why?)

✇ Developer-Blog - Continuous Architecture

Collective Code Ownership: Ein Anti-Pattern?

06. Dezember 2017 um 07:15

zurück zum Artikel

Gemeinsame Verantwortung für Code hört sich nach einer gute Idee an. Aber sie ignoriert wichtige Konzepte der Softwareentwicklung.

Collective Code Ownership stammt aus dem Extreme Programming (XP), einer frühen agilen Methode. Es bedeutet, dass alle Entwickler jedes Problem beheben müssen, das sie im Code finden. Gemeinsam die Verantwortung für ein System zu übernehmen, sorgt dafür, das Probleme beseitigt werden, statt sie einfach hinzunehmen. Moderne Ansätze für Projektarbeit setzten auf eigenverantwortliche Teams. Dafür ist bei Softwareentwicklung die Verantwortung für den Code sicherlich zentral.

Woher wissen die Entwickler, was verbessert werden muss und wie das geschehen soll? Im Buch "Extreme Programming Explained" von Kent Beck steht, dass nicht alle Entwickler Experten für jeden Codeteil sein können, aber sie müssen zumindest ein grundlegendes Verständnis für den gesamten Code haben.

Information Hiding

Wissen über den gesamten Code widerspricht dem Information Hiding, das schon in einem anderen Beitrag[1] eine Rolle gespielt hat. Information Hiding bedeutet, dass Nutzer eines Moduls nur die Schnittstelle kennen, aber nicht die Interna. Das erleichtert die Nutzung des Modul, weil Nutzer weniger über das Modul wissen muss. Das Modul ist auch einfacher änderbar. Änderungen sind ohne Beeinträchtigung der Nutzer des Moduls möglich, so lange die Schnittstelle unverändert bleibt.

Collective Code Ownership fordert aber mehr als nur Wissen über die Schnittstelle. Jeder muss die Interna aller Module zumindest oberflächlich verstehen. Welche Alternativen gibt es?

Alternativen

Für jedes Modul könnte ein Entwickler verantwortlich sein. Das hat entscheidende Nachteile. Wenn die zuständigen Entwickler Urlaub haben oder krank werden, wird es schwierig, das Modul zu ändern, weil nur sie das Modul verstehen.

Eine Lösung ist, dass mehrere Entwickler jedes Modul kennen, aber nicht alle Entwickler jedes Modul kennen. Die Organisation spielt dabei eine wichtige Rolle: Das Gesetz von Conway[2] besagt, dass die Softwarearchitektur den Kommunikationsbeziehungen unter den Entwicklern entspricht. Die These: Entwickler sind jeweils für ein oder mehrere Module zuständig und müssen miteinander reden, wenn sie Module anderer Entwickler nutzen wollen. Auch das widerspricht dem Collective Code Ownership, weil nicht jeder Entwickler jeden Code versteht oder gar ändern kann

Kommunikation innerhalb eines Teams ist einfacher. Sie arbeiten oft in denselben Räumlichkeiten und haben gemeinsame Meetings. Das erleichtert die Kommunikation. Bessere Kommunikation kann nach dem Gesetz von Conway Auswirkungen auf die Architektur haben. Wenn Entwickler aus einem Team den Code anderer Teammitglieder kennen, kann das ein Zeichen guter Zusammenarbeit im Team sein. Wenn die Entwickler die Module anderer Teams kennen müssen, dann ist dazu aufwendige Kommunikation wie während extra organisierter Meetings notwendig. Also sollte Collective Code Ownership auf Teams beschränkt sein und nicht die gesamte Organisation umfassen.

tl;dr

Collective Code Ownership bedeutet, Verantwortung für Code zu übernehmen und Code zu verbessern. Das ist ein gute Sache. Den gesamten Code zu verstehen, ist dank Modularisierung zum Glück nicht notwendig.


URL dieses Artikels:
http://www.heise.de/-3909449

Links in diesem Artikel:
[1] https://www.heise.de/developer/artikel/Meine-Datenbank-gehoert-mir-3608372.html
[2] http://www.melconway.com/Home/Conways_Law.html

Copyright © 2017 Heise Medien

Let's block ads! (Why?)

✇ iX news ff.org

Always Connected PC: Notebooks und Tablets mit Gigabit-LTE von Asus und HP

Von heise online — 05. Dezember 2017 um 20:31

zurück zum Artikel

heise online
Always Connected PC HP Envy x2

Always Connected PC HP Envy x2

(Bild: Microsoft)

Die ersten Windows-10-Mobilrechner mit dem 64-Bit-ARM-SoC Qualcomm Snapdragon 835 sollen noch vor Silvester erscheinen

Maui auf Hawaii haben sich Microsoft und Qualcomm als Schauplatz des Snapdragon Tech Summit ausgesucht: Hier fiel heute der offizielle Startschuss für die seit einem Jahr angekündigten "Always Connected PCs[1]" mit Windows 10 auf ARM64-SoCs. Zunächst geht es um genau ein System on Chip, nämlich den Qualcomm Snapdragon 835 aus der 10-Nanometer-Fertigung. Die Firmen Asus (NovaGo) und HP (Envy x2) stellen damit bestückte Mobilrechner vor, denen Microsoft grundlegend neue Eigenschaften zuspricht.

Der Always Connected PC soll die Nische zwischen Smartphone und Notebook füllen: Dank LTE-Modem (und WLAN) stets mit dem Internet verbunden, blitzschnell betriebsbereit, tagelange Akkulaufzeit – Microsoft verspricht 22 Stunden und eine Woche Bereitschaft –, schlank und leicht und trotzdem für viele Windows-Programme geeignet.

Letzteres ist möglich, weil Microsoft und Qualcomm einen Pferdefuß der glücklosen Windows-RT-Tablets[2] von vor vier Jahren beseitigen: Dank einer x86-Emulationsschicht[3] laufen auf den Always Connected PCs auch 32-Bit-Windows-Programme. Zwar ist dabei keine hohe Geschwindigkeit zu erwarten[4] – aber das ist für Office-Software oder spezielle Business-Anwendungen oft weniger entscheidend, als dass sie überhaupt laufen.

Touch, Pen, Ink, Hello

Always Connected PCs gibt es als Tablet mit anflanschbarer Tastatur wie das HP Enxy x2 oder als Notebook mit 360-Grad-Scharnier wie das Asus NovaGo. Was der dritte im Bunde, Lenovo, plant, ist noch unbekannt. Jedenfalls haben die ersten zwei Geräte Touchscreens. Das Envy x2 lässt sich auch per Stift bedienen – unklar, ob der extra kostet.

Um den Komfort zu steigern, lassen sich Always On PCs via Windows Hello per Gesichtserkennung entsperren.

Windows 10 S, Pro optional

Die ersten Always Connected PCs sollen noch vor dem Jahresende zu haben sein, jedenfalls in den USA. Bei den Preisen verweist Microsoft an die jeweiligen Hersteller. Man munkelt von mehr als 500 US-Dollar, während Android-Tablets mit LTE und 10-Zoll-Display ab 200 Euro zu haben sind.

Auf einem Always Connected PC ist Windows 10 S[5] vorinstalliert, bei dem sich nur Apps aus dem Windows Store installieren lassen. Besitzer eines Always Connected PC können aber kostenlos auf Windows 10 Pro umsteigen und dann beliebige Apps installieren. 2018 sollen Always Connected PCs auch als Business-Geräte durchstarten. Mit Windows 10 Pro lassen sie sich in die IT-Administration integrieren und immer mehr Firmen verlagern Applikationen in die Cloud.

Gigabit-LTE, eSIM und SIM-Karte

Microsoft Always Connected PC
Microsoft Always Connected PC (Bild: Microsoft)

Im Vergleich zu verfügbaren x86-Prozessoren wie Intels Atom hat der Qualcomm Snapdragon 835[6] den großen Vorteil eines eingebauten LTE-X16-(4G-)Modems[7] für Download-Raten bis zu 1 GBit/s. Das ist schön, nutzt hierzulande aber noch wenig, weil erst wenige Basisstationen solche Datenraten liefern. Und die erste LTE-BTS mit 1 GBit/s in Düsseldorf nutzt zudem LTE Cat 18[8]: In diesem Netz schafft das Cat-16-Modem des MSM8998 wohl höchstens 500 MBit/s.

Microsoft will mit Mobilfunk-Providern kooperieren, um günstige Tarife bereitzustellen. Außer einer integrierten eSIM sollen die neuen Always On PCs auch SIM-Kartenleser haben.

Intel-/Google-Konkurrenz

Die Always Connected PCs mit ARM64 sind auch ein Angriff auf Intels x86-Chips. Intel hat den x86-Emulator auch bereits indirekt kritisiert[9], kann aber möglicherweise wegen alter Rechte von HP[10] nichts dagegen tun.

Auf der Computex behauptete Intel, dass es solche Geräte längst gibt[11], etwa das Samsung Galaxy Book[12] – allerdings wohl nicht zu Preisen unter 1000 Euro. Auf der Computex hatte Asus ein ähnliches Gerät mit Core-i-CPU und LTE-Modem unter dem Codenamen Kukuna vorgeführt. Doch vermutlich sollten darin die angekündigten 10-nm-Cannon-Lake-Chips[13] stecken, die Intel bisher offensichtlich nicht ausliefern kann. Dabei hätte Intel mit dem XMM 7560[14] wohl mittlerweile auch einen Gigabit-LTE-Modemchip im Angebot.

Wie stark die Always Connected PCs gegen Googles Chromebooks punkten, ist fraglich: Mit Preisen jenseits von 500 Euro eher nicht. Chromebooks machen Microsoft vor allem im US-amerikanischen Bildungsmarkt (K-12 Education) das Leben schwer.

Snapdragon 845, Microsoft Surface

Der Snapdragon 835 alias MSM8998 kommt bereits in vielen Android-Smartphones wie dem Google Pixel 2 XL[15] und dem Samsung Galaxy S8[16] und Note 8[17] zum Einsatz. Qualcomm arbeitet aber bereits am Snapdragon 845. Microsoft selbst wollte Fragen zu einem Surface mit Snapdragon 835 nicht beantworten.


URL dieses Artikels:
http://www.heise.de/-3908868

Links in diesem Artikel:
[1] https://www.heise.de/meldung/Windows-10-Tablets-mit-LTE-eSIM-Atom-oder-ARM-sind-Always-Connected-PCs-3729763.html
[2] https://www.heise.de/meldung/Samsung-stellt-Windows-RT-Tablet-ein-1816532.html
[3] https://www.heise.de/meldung/Microsoft-zeigt-Windows-10-auf-ARM64-3713675.html
[4] https://www.heise.de/meldung/Always-Connected-PCs-mit-Snapdragon-835-und-Windows-10-ruecken-naeher-3891599.html
[5] https://www.heise.de/meldung/Das-neue-Windows-10-S-viel-Pro-etwas-RT-etwas-festgenageltes-Bing-3701789.html
[6] https://www.qualcomm.com/products/snapdragon/processors/835
[7] https://www.heise.de/meldung/Qualcomm-Mobilprozessor-Snapdragon-835-GBit-LTE-acht-Kerne-10-nm-Fertigung-3587314.html
[8] https://www.heise.de/ct/ausgabe/2017-24-Gigabit-LTE-3882122.html
[9] https://www.heise.de/meldung/Intel-warnt-Qualcomm-und-Microsoft-wegen-x86-Emulator-3739824.html
[10] https://www.heise.de/ct/ausgabe/2017-22-Von-Stellungen-und-Stellschrauben-3855024.html
[11] https://newsroom.intel.com/news/always-connected-pcs-computex-increasingly-relevant-pc-todays-connected-world/
[12] https://www.heise.de/preisvergleich/samsung-galaxy-book-12-w728n-lte-256gb-sm-w728nzka-a1621450.html?hocid=newsticker&wt_mc=intern.newsticker.textlink-pvg.pvg_a1621450
[13] https://www.heise.de/meldung/Intel-zeigt-Tablet-Hybrid-mit-10-Nanometer-CPU-und-VR-Brillen-3589108.html
[14] https://www.heise.de/meldung/Gigabit-LTE-Qualcomm-und-Intel-satteln-drauf-3632085.html
[15] https://www.heise.de/preisvergleich/google-pixel-2-xl-64gb-schwarz-a1704884.html?hocid=newsticker&wt_mc=intern.newsticker.textlink-pvg.pvg_a1704884
[16] https://www.heise.de/preisvergleich/samsung-galaxy-s8-g950f-schwarz-a1601178.html?hocid=newsticker&wt_mc=intern.newsticker.textlink-pvg.pvg_a1601178
[17] https://www.heise.de/preisvergleich/samsung-galaxy-note-8-n950f-schwarz-a1677742.html?hocid=newsticker&wt_mc=intern.newsticker.textlink-pvg.pvg_a1677742
[18] mailto:ciw@ct.de

Copyright © 2017 Heise Medien

Let's block ads! (Why?)

✇ iX news ff.org

Pivotal Cloud Foundry 2.0 setzt auf Serverless Computing und Kubernetes

Von heise online — 05. Dezember 2017 um 18:00

zurück zum Artikel

Pivotal Cloud Foundry bekommt Serverless Computing

Für die zweite Hauptversion der Platform as a Service hält der Bereich Serverless Computing Einzug in die Plattform. Außerdem hat das Team in Zusammenarbeit mit Google und VMware Kubernetes integriert.

Pivotal hat auf der Konferenz SpringOne Platform[1], die vom 4. bis 7. Dezember in San Francisco stattfindet, die Version 2.0 von Pivotal Cloud Foundry angekündigt. Die ursprünglich von VMware entwickelte Platform as a Service (PaaS) bekommt damit einige Neuerungen. Pivotal aktualisiert nicht nur die Laufzeitumgebung für Applikationen, sondern führt zusätzliche Dienste für Serverless Computing und die Orchestrierung von Containern ein.

Die erweiterten Dienste der Cloud Foundry
Die erweiterten Dienste der Cloud Foundry (Bild: Pivotal )

Mit Pivotal Function Service betritt die Plattform den Bereich des Serverless Computing. Der Dienst führt ähnlich wie AWS Lambda, Microsoft Azure Functions oder das vor kurzem von Oracle eingeführte Fn einfache Funktionen als Reaktion auf Ereignisse aus. Noch befindet sich das System in einem frühen Stadium und soll laut der Ankündigung innerhalb der nächsten sechs Monate verfügbar sein.

Der Dienst entsteht als Open-Source-Projekt, und konkrete technische Details bezüglich der Programmiersprachen werden wohl noch folgen. Entwickler erstellen mit Pivotal Function Service Funktionen, die das System beispielsweise als Reaktion auf Ereignisse aus Systemen wie RabbitMQ oder Apache Kafka ausführt.

Container-Hafen mit VMware und Google

Der Pivotal Container Service (PKS) ist in Zusammenarbeit mit VMware und Google entstanden und verwaltet den Einsatz von Kubernetes. Er soll den hybriden Einsatz des Orchestrierungswerkzeugs zwischen dem Rechenzentrum und der Public Cloud vereinfachen. Die Kooperation soll eine dauerhafte Kompatibilität zur Google Container Engine (GKE) gewährleisten. Außerdem können Entwickler die Dienste von Googles Cloud-Plattform beispielsweise im Bereich Machine Learning integrieren.

Pivotal Container Service ist auf Hochverfügbarkeit ausgelegt und bietet Methoden für Health Checks, Skalierung und Selbstheilung. Entwickler können auf die vollständige Open-Source-Kubernetes-API ohne proprietäre Erweiterungen zugreifen. Zur Netzwerkvirtualisierung integriert der Dienst VMware NSX-T. PKS ist zunächst als Early-Access-Variante verfügbar.

Erweiterte Laufzeitumgebung und Markplatz

Die Laufzeitumgebung Pivotal Application Service haben die Macher mit Version 2.0 der PaaS weitgehend erneuert. Unter anderem lassen sich nun neben Linux-Containern auch solche mit Windows Server 2016 verwenden und Funktionen wie CPU-Autoskalierung laufen direkt für die darin ausgeführten .NET-Anwendungen. Neu ist zudem ein optionales Dashboard namens Healthwatch, das Einblick in die Performance der Plattform gewährt. Die Integration von NSX-T soll eine Brücke zwischen traditionellen und Cloud-Native-Anwendungen schlagen.

Der Pivotal Services Marketplace bietet Erweiterungen zum Einbinden externer Dienste von Anbietern wie GitHub, Splunk, New Relic, Apigee und IBM. Weitere Details lassen sich dem Pivotal-Blog[2] entnehmen.


URL dieses Artikels:
http://www.heise.de/-3908063

Links in diesem Artikel:
[1] https://springoneplatform.io/
[2] https://content.pivotal.io/blog
[3] mailto:rme@ct.de

Copyright © 2017 Heise Medien

Let's block ads! (Why?)

❌