

Das Cloud-Geschäft bei Oracle wächst zwar, entwickelt sich aber schwächer als erwartet - die Anleger sind nicht sehr begeistert und strafen Oracle an der Börse ab.
Der SAP-Rivale Oracle hat Gewinn und Umsatz im vergangenen Geschäftsquartal deutlich gesteigert – bei Anlegern kamen die Zahlen dennoch schlecht an. In den drei Monaten bis Ende November kletterte der Überschuss[1] verglichen mit dem Vorjahreswert um zehn Prozent auf 2,2 Milliarden Dollar. Der Umsatz wuchs um sechs Prozent auf 9,6 Milliarden Dollar.
Obwohl die Prognosen der Analysten damit übertroffen wurden, sank die Aktie nachbörslich um über vier Prozent. Trotz eines starken Umsatzwachstums um 44 Prozent auf 1,5 Milliarden Dollar entwickelte sich das Cloud-Geschäft mit IT-Diensten im Internet schwächer als erwartet.
(dpa) /
URL dieses Artikels:http://www.heise.de/-3918778
Links in diesem Artikel:[1] https://www.oracle.com/corporate/pressrelease/earnings-q2fy18-121417.html[2] mailto:jk@ct.de
Copyright © 2017 Heise Medien


Stubby in Action: Ist die Software installiert und aktiviert, ändert sie die DNS-Konfiguration so, dass sie die DNS-Anfragen des Betriebssystems selbst erhält (sie gehen an die lokale IP-Adressen 127.0.0.1 oder, bei IPv6 an ::1). Diese gibt sie dann selbst TLS-verschlüsselt weiter.
Die Entwicklung steckt zwar noch in den Kinderschuhen, aber inzwischen gibt es immerhin zwei Tools für macOS und Android, mit denen man ein Datenschutz-freundlicheres DNS einfach per Mausklick nutzen kann.
Der quelloffene DNS-Privacy-Daemon namens Stubby ist erstmals mit einer graphischen Oberfläche für macOS erschienen[1]. Stubby wird parallel auch für andere Betriebssysteme entwickelt und verschickt TLS-verschlüsselte DNS-Anfragen an geeignete Resolver. So trägt die Software zu mehr Privatheit bei der Internet-Kommunikation bei. Denn übliche, im Betriebssystem eingebaute Stub-Resolver verschicken DNS-Anfragen unverschlüsselt, sodass man leicht auslesen kann, welche Web-Seiten der Absender der DNS-Anfrage besucht.
Stubby verwendet die Spezifikation "DNS over TLS" der Internet Engineering Task Force (RFC 7858[2]). Die Technik setzt Resolver voraus, die TLS-verschlüsselte Anfragen annehmen. Und natürlich sind solche Resolver nur dann hilfreich, wenn die Betreiber die DNS-Anfragen der Nutzer nicht protokollieren. Eine Liste haben die Betreiber des Projekts "DNS-Privacy" auf ihrer Web-Seite[3] veröffentlicht.
Am sicheren Stub-Resolver für PCs arbeiteten bislang vor allem Sara Dickinson und die Partner des DNS-Privacy-Projekts. Es handele sich um eine Vorschauversion, ein "Alpha-Release der Version 0.1.0", unterstrich Dickinson in einer Mail an heise online. Bislang wurde die Software auf macOS Sierra und High Sierra getestet.
An mehreren Punkten gilt es noch zu feilen, sodass sich die Software keinesfalls für den Produktivbetrieb eignet: Der Sleep-Modus kann Stubby aus der Bahn werfen und manchmal ist er ohne Einfluss von Außen verwirrt. Was man dann tun kann, beschreibt die Entwicklerin im Bereich Known Issues[4] auf der Download-Seite der Software. Weitere wichtige Schritte bei der Entwicklung sind die klare Unterscheidung des strikten Datenschutzmodus (nur verschlüsselt) vom opportunistischen (wenn vorhanden). Auch soll die Transparenz bei Veränderungen der Netzwerkkonfiguration verbessert werden. Später soll es für Stubby auch auf Windows und Linux ein GUI geben.
Auch Android-Nutzer können seit ein paar Wochen DNS über TLS testen. Die Software entstammt den Tastaturen von Erik Kline und Ben Schwarz (beide sind Google-Mitarbeiter) und ist auf der zugehörigen Website erhältlich[5]. Nach dem Herunterladen können Nutzer zwischen drei Optionen wählen: privacy mode, opportunistic mode oder privacy-off mode – also durchgängiger Standardbetrieb ohne Verschlüsselung.
Beim jüngsten Treffen der Internet Engineering Task Force konnten die Autoren für eine Demonstration auf den TLS-fähigen Server ihres Kollegen Warren Kumari zugreifen. Wer die Software in freier Wildbahn testen will, kann einen der Resolver von der Liste des DNS-Privacy-Projekts im Android-Gerät einstellen.
Die DNS-Resolver Unbound, Knot und BIND setzen das RFC 7858 schon länger um und laufen stabil. Alle drei sind aber nur für die Steuerung per Kommandozeile ausgelegt. Wie man Unbound mit DNS-Privacy zum Beispiel auf einem Raspi für ein ganzes Netz einrichtet, erklärt der c't-Artikel "Privatsphäre per Tunnel[6]" Schritt für Schritt.
(Monika Ermert) /
URL dieses Artikels:http://www.heise.de/-3918634
Links in diesem Artikel:[1] https://dnsprivacy.org/wiki/display/DP/Stubby+GUI+for+macOS[2] https://www.heise.de/netze/rfc/rfcs/rfc7858.shtml[3] https://dnsprivacy.org/wiki/display/DP/DNS+Privacy+Test+Servers[4] https://dnsprivacy.org/wiki/display/DP/Stubby+GUI+for+macOS[5] https://android-review.googlesource.com/q/topic:dns-dev-opt+(status:open+OR+status:merged[6] https://www.heise.de/ct/ausgabe/2017-20-Domain-Name-Service-Datenschutz-selbstgebaut-3825108.html[7] mailto:dz@ct.de
Copyright © 2017 Heise Medien


(Bild: dpa, Bernd Thissen/Symbolbild)
Eine Übernahme durch den französischen Konzern sei nicht im Interesse des Unternehmens und seiner Angleger, teilte der niederländische Chipkarten-Hersteller mit. Der Aufsichtsrat habe einstimmig abgewunken.
Chipkarten-Hersteller Gemalto hat das Übernahmeangebot des französischen Atos-Konzerns zurückgewiesen. Als Weltmarktführer für digitale Sicherheitsanwendungen sei Gemalto hervorragend aufgestellt, um eigenständig und langfristig zu wachsen, teilte das Unternehmen am Mittwoch in Amsterdam mit[1]. Gemalto werde seinen Anteilseignern nun einen Entwicklungsplan für die nächste Zukunft vorlegen, erklärte der Vorstandsvorsitzende Philippe Vallée.
Der französische IT-Dienstleister Atos hatte am Montag sein Übernahmeangebot für Gemalto veröffentlicht[2] und will insgesamt rund 4,3 Milliarden Euro auf den Tisch legen. Durch den Zusammenschluss solle ein führendes Unternehmen bei Cyber-Sicherheit und digitalen Dienstleistungen entstehen. Die Franzosen hatten bereits vor Jahren die IT-Tochter SIS von Siemens übernommen.
Der Aufsichtsrat habe das Angebot zusammen mit Finanzberatern eingehend geprüft, heißt es von Gemalto nun. Das Gremium sei dabei einmütig zu dem Schluss gelangt, dass eine Übernahme nicht die beste Lösung für das Unternehmen und seine Anteilseigner wäre. Atos hatte betont, das Angebot sei freundlich gesinnt. Nach der Zurückweisung durch Gemalto bleibt nun abzuwarten, ob die Franzosen eine feindliche Übernahme versuchen.
URL dieses Artikels:http://www.heise.de/-3918684
Links in diesem Artikel:[1] https://www.gemalto.com/press-site/Documents/2017/2017-13-13_Gemalto_Reponse_Atos_PR_EN.pdf[2] https://www.heise.de/meldung/IT-Spezialist-Atos-will-Chipkarten-Hersteller-Gemalto-schlucken-3915775.html[3] mailto:vbr@ct.de
Copyright © 2017 Heise Medien


(Bild: Dusan Zivadinovic )
TLS-Zertifikate lassen sich mittels DANE weit zuverlässiger gegen Missbrauch absichern als herkömmlich über Zertifizierungsstellen. Ein Tages-Workshop für Administratoren und Sicherheitsbeauftragte führt in die Technik ein.
Verschlüsselte Kommunikation verhindert unerwünschtes Mitlesen durch Dritte und schützt die Privatsphäre zwischen zwei Kommunikationspartnern. Dafür setzt man häufig kryptografische Schlüssel ein. Einem Schlüssel sieht man aber nicht an, wem er gehört. Beim verbreiteten Verschlüsselungsstandard TLS (Transport Layer Security) sollen daher x509-Zertifikate die Authentizität der Schlüssel und Schlüsseleigner beglaubigen.
Genau da steckt eine konzeptbedingte Schwäche: Denn jede Zertifizierungsstelle der Welt darf Zertifikate für jede beliebige Domain ausstellen – auch wenn das der Eigner der Domain gar nicht abgenickt hat. Außerdem sind die Herausgeber der Zertifikate wegen Sicherheitslücken in deren IT-Systemen und auch wegen Misswirtschaft in Verruf geraten.
Die DANE-Technik räumt mit alten Konzeptfehlern auf und bringt mehrere Vorteile: Die dafür ausgelegten Tools und Clients beziehen einen Schlüssel automatisch nur aus der angefragten Domain – es gibt also nur noch eine Quelle für den Schlüssel einer Domain. Und weil bei DANE der digitale Fingerabdruck eines TLS-Zertifikats im Domain Name System hinterlegt wird, weiß die Seite, die eine Verbindung aufbauen will, vorher schon, woran sie das richtige Zertifikat erkennt. So werden Man-in-the-Middle-Attacken vereitelt.
Zudem wird der Fingerabdruck mittels den DNS Security Extensions auf dem Übertragungsweg zum Empfänger gegen Manipulation abgesichert (DNSSEC). Last but not least, behalten die Eigner die Kontrolle darüber, können Schlüssel also ersetzen oder entfernen. Denn, um bei DANE einen Schlüssel zu manipulieren, müsste gleich das gesamte DNSSEC manipuliert werden.
Der Workhop zu DANE (DNS-Based Authentication of Named Entities) führt schnell in die Technik ein und zeigt, wie man sie auf dem DNS-Server BIND 9 einrichtet und mit dem freien Mailserver Postfix verwendet. Sie lernen, wie Sie einen SMTP-Server so einrichten, dass er E-Mails verschlüsselt weiterreicht und wie Sie Ihren Nutzern mittels DANE einen Mehrwert bei der PGP- oder S/MIME-verschüsselten Kommunikation bieten.
Der Workshop richtet sich an DNS- und Mail-Administratoren, Sicherheitsbeauftragte in Unternehmen sowie Auditoren für Netzwerksicherheit. Der Workshop findet in Hannover am 27.02.2018 statt. Themenschwerpunkte sind:
• Grundlagen DNSSEC
• Grundlagen TLS/SSL-Transportverschlüsselung
• DANE-Techiken, TLSA/OPENPGPKEY/SMIMEA-Records
• BSI Technische Richtlinie TR3108 "Sicherer E-Mail-Transport"
• Beispiel-Implementierung DNSSEC und DANE mit BIND 9 und Postfix
Vorausgesetzt werden grundlegende Linux- und Unix-Kommandozeilen-Kenntnisse sowie Grundkenntnisse des Domain-Name-System. Weitere Informationen sowie die Möglichkeit zur Anmeldung finden Sie auf der Workshop-Website[1]. Für Anmeldungen bis zum 16.01.2018 ist ein Frühbucherrabatt erhältlich.
URL dieses Artikels:http://www.heise.de/-3913495
Links in diesem Artikel:[1] http://www.heise-events.de/dnssec[2] mailto:dz@ct.de
Copyright © 2017 Heise Medien

Eine neues Encoding für HDFS reduziert den Speicherbedarf, und YARN Timeline Service v.2 erweitert die im YARN Timeline Server eingeführten Dienste zum Speichern anwendungsspezifischer Informationen.
Vier Jahre nach Version 2.0 hat die Apache Software Foundation nun Hadoop 3.0.0 freigegeben. Die Entwicklung der neuen Hauptversion erfolgte parallel zu den 2.x-Releases, und die erste Alpha hatten die Macher bereits im September 2016 veröffentlicht. Nun erachten sie nach einer gut zweimonatigen Betaphase Hadoop 3 als stabil für den produktiven Einsatz.
Zu den Neuerungen gehört unter anderem eine alternative Art der Replikation im Hadoop Distributed File System (HDFS): Das sogenannte Erasure Encoding[1] bringt einen maximalen Overhead von 50 Prozent mit sich. Beim bisher verwendeten 3x Replication Scheme lag er bei 200 Prozent. Der Preis dafür ist jedoch eine höhere Netzwerk- und CPU-Auslastung, sowohl für die HDFS-Clients als auch für die DataNodes. Außerdem sind einige HDFS-Schreiboperationen wie hflush, hsync und append nicht möglich.
Hadoop 3 enthält zudem den YARN Timeline Service v.2[2] als Nachfolger des YARN Timeline Server. Er dient zum Speichern der anwendungsspezifischen Informationen und von Informationen über abgeschlossene Applikationen. So können Entwickler beispielsweise die Zahl der Map- und Reduce-Tasks im Service speichern, und die Informationen lassen sich über eine REST API abrufen.
YARN Timeline Service v.2 soll im Vergleich zum Vorgänger vor allem die Skalierbarkeit verbessern und einfacher zu verwenden sein. Der Dienst separiert neuerdings die Schreib- von den Leseoperationen. Erstere erledigen Kollektoren, von denen jeweils einer für eine einzelne YARN-Applikation zuständig ist. Das Lesen geschieht über separate Instanzen, und die Reader sind über eine REST API angebunden. Als primäres Speichersystem kommt nun HBase zum Einsatz. Der YARN Timeline Service v.2 befindet sich derzeit noch in der Preview-Phase.

Neu ist zudem das erweiterte Framework für YARN Resource Types, um Ressourcen jenseits der CPU und des Hauptspeichers zu verwalten. Besonders mit Blick auf containerisierte und Machine-Learning-Anwendungen lassen sich nun auch GPU und Plattenspeicher managen. Die neu eingeführte YARN Federation ist mit der bereits vorhandenen HDFS Federation vergleichbar und soll die Skalierbarkeit von YARN auf mehrere Zehntausend Knoten erhöhen.
Weitere Neuerungen wie die Opportunistic Container Execution lassen sich dem Blogbeitrag[3] entnehmen. Hadoop 3.0.0 benötigt nun die Java-8-Laufzeitumgebung. In Kürze sind aktualisierte Versionen von HBase, Hive und Phoenix zu erwarten, die ebenfalls für Java 8 kompiliert sein werden. Beim Verfassen dieser Meldung war auf der Download-Seite[4] lediglich die Beta-Version von Hadoop 3 verfügbar, aber das fertige Release sollte in Kürze folgen.
Hadoop ist ein Vorreiter im Bereich Big Data, und der Elefant trotzt weiterhin jeglichen Stimmen, die in Zeiten von Apache Spark und Flink das Ende des Urgesteins sehen. Ihre Anfänge hatte die Plattform bei Google bereits 2003, das zentrale MapReduce-Dateisystem entstand jedoch erst 2004. Der Name Hadoop kam erst später auf, und Version 0.1 erschien 2006. Bis zum 1.0-Release unter dem Dach der Apache Foundation zogen weitere sechs Jahre ins Land. Die Entwicklung zur zweiten Hauptversion benötigte anschließend gerade mal ein Jahr. Dagegen ist die vierjährige Phase bis zum aktuellen Release wieder behäbiger.
URL dieses Artikels:http://www.heise.de/-3918281
Links in diesem Artikel:[1] http://hadoop.apache.org/docs/r3.0.0-beta1/hadoop-project-dist/hadoop-hdfs/HDFSErasureCoding.html[2] http://hadoop.apache.org/docs/r3.0.0-alpha1/hadoop-yarn/hadoop-yarn-site/TimelineServiceV2.html[3] https://blogs.apache.org/foundation/entry/the-apache-software-foundation-announces26[4] http://hadoop.apache.org/releases.html[5] mailto:rme@ct.de
Copyright © 2017 Heise Medien

Neben der aktuellen Programmierer-Studie 2017 präsentiert WeAreDevelopers auch ein eigens von und für Developer entwickeltes Jobportal, dass deren Bedürfnissen besser gerecht werden soll.
Programmierer scheinen scheue Wesen zu sein, diesen Schluss lässt die neue Studie der Plattform WeAreDevelopers[1] zu. So sind nur sechs Prozent der im Rahmen der Studie befragten Programmierer überhaupt aktiv auf Jobsuche und damit für die Personaler suchender Unternehmen erreichbar. Dem entgegen stehen jedoch 41 Prozent Programmierer, die willig und offen für einen Jobwechsel wären. 86 Prozent aller Programmierer im DACH-(Deutschland, Österreich, Schweiz)- & CEE-Raum (Osteuropa und Balkan) würden für eine neue Beschäftigung sogar das Land wechseln. Besonders beliebte neue Heimatländer sind dabei Deutschland, Schweden und Großbritannien.
Softwareentwickler sind ein bedeutender Faktor für die Wachstumsziele vieler Unternehmen, gerade in der zunehmend digitalisierten Wirtschaft. Jedoch fehlen gerade in Europa und besonders in der DACH-Region viele dieser Fachleute. Laut den aktuellen Daten der EU-Kommission gibt es bei 52 Prozent der offenen Entwicklerstellen Probleme mit deren Besetzung, in Österreich liegt der Anteil mit 61 Prozent sogar noch höher. Der aktuelle Wirtschaftsaufschwung verschärft den Mangel an Entwicklern noch zusätzlich, so WeAreDevelopers.
Damit sich zukünftig Programmierer und Personaler einfacher finden können, stellt WeAreDevelopers jetzt das Jobportal devjobs[2] vor – nach dem Muster einer Partnerbörse. Dort sollen sich, laut Benjamin Ruschin, CEO bei WeAreDevelopers, Softwareentwickler durch die eigens für sie programmierte Plattform besser verstanden fühlen und Personaler ihre Jobangebote durch Nachfragen seitens devjobs, besser auf Programmierer abstimmen können. WeAreDevelopers will Programmierer und Personaler vor allem über das Alleinstellungsmerkmal der genau auf Softwareentwickler zugeschnittenen Matching-Elemente erreichen.
Denn, bei der Frage, warum so wenig Personaler die richtigen Entwickler finden, scheint die Antwort der WeAreDeveloper-Umfrage fast schon zu einfach: Mangelnde Entwickler-Fachkenntnis bei den Personalern. So möchten Developer auf Augenhöhe mit dem Personaler sprechen. Dazu gehört, so die Auswertung der Umfrage, dass diese zumindest eine grundlegende Vorstellung vom Programmieren haben. Denn der Mangel an Sachkenntnis führt häufig dazu, dass konkrete Nachfragen zu der offenen Stelle und dem Tätigkeitsumfeld von den Personalern schlecht bis unzureichend beantwortet werden können. Am liebsten wäre den Befragten demnach, dass Personalabteilungen eine Entwickler-Schulung bekommen oder sich zumindest mit der entsprechenden Abteilung kurzschließen, was und wer genau gesucht wird.
85 Prozent der Entwickler sind der Meinung, dass es schwierig ist ein passendes Arbeitsumfeld zu finden. Aktuelle Trends und Entwicklungen wie Home Office, legerer Dresscode, flexible oder auch Vertrauensarbeitszeiten, die für ein angenehmes Arbeitsumfeld sorgen, sind auch bei Entwicklern beliebt und gefragt.
Zu Arbeitsplätzen und Stellenangeboten in der IT-Branche siehe auch den Stellenmarkt auf heise online:
URL dieses Artikels:http://www.heise.de/-3918319
Links in diesem Artikel:[1] https://www.wearedevelopers.com/[2] https://www.wearedevelopers.com/devjobs/[3] https://jobs.heise.de/[4] mailto:kkr@heise.de
Copyright © 2017 Heise Medien

Noch bis zum 14. Januar sind JavaScript-Entwickler eingeladen, sich mit Vortrags- und Workshopideen für die fünfte Auflage der enterJS-Konferenz zu bewerben.
Vom 19. bis 21. Juni 2018 findet in Darmstadt erneut die Enterprise-JavaScript-Konferenz enterJS[1] statt. Vortrags- und Workshopvorschläge[2] nehmen die Veranstalter heise Developer, dpunkt.verlag und iX noch bis zum 14. Januar 2018 entgegen. Willkommen sind alle Einreichungen, die sich mit dem Einsatz von JavaScript im Enterprise-Umfeld beschäftigen – von Herausforderungen, Praxis- und Sicherheitstipps bis hin zu Erfahrungsberichten.
Beispiele für gewünschte Themen sind unter anderem die Integration von JavaScript in bestehende Softwarearchitekturen, Performance- und Sicherheitsoptimierungen sowie der Einsatz von Tools und Frameworks. Wie bereits in den vergangenen Jahren sind Vorträge zu Angular, TypeScript, React und Node.js, aber auch zu Vue.js oder Electron gerne gesehen. Bei Fragen zu Themen oder Gestaltung der Einreichung, hilft das Team der enterJS gern per Mail[3] weiter. Außerdem ist es möglich, sich bestimmte Themen oder Sprecher mit dem Call for Suggestions[4] zu wünschen.
Den Vorträgen am 20. und 21. Juni geht ein Workshoptag voraus, an dem Besucher die Gelegenheit haben, praktisch in die Themen einzusteigen. Das komplette Programm ist Anfang Februar zu erwarten, Rückmeldungen zu den Einreichungen gibt es bis Ende Januar. Wer über enterJS-Neuigkeiten informiert werden möchte, kann den Konferenz-Newsletter abonnieren[5] oder den Veranstaltern auf Twitter[6] folgen.
Impressionen der enterJS 2017
URL dieses Artikels:http://www.heise.de/-3918114
Links in diesem Artikel:[1] https://www.enterjs.de/[2] https://www.enterjs.de/call-for-proposals-de[3] mailto:hello@enterjs.de[4] https://www.enterjs.de/call-for-suggestions-de[5] https://www.enterjs.de/newsletter_eintragen[6] https://twitter.com/enterjsconf[7] mailto:bbo@ix.de
Copyright © 2017 Heise Medien


SuperMUC am LRZ 2012
(Bild: MMM/LRZ)
Der Zuschlag ging an Lenovo und Intel: 6448 Xeon-SP-Server bilden 2018 den SuperMUC Next Generation mit 26,7 PFlops und Warmwasserkühlung.
Heute wurde in München der Vertrag zur Lieferung des SuperMUC Next Generation an das Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften unterzeichnet. Ab März 2018 sollen die ersten Racks installiert werden, die Lenovo mit 6448 Dual-Socket-Maschinen vom Typ ThinkSystem SD 650 DWC bestückt. In jedem davon sitzen zwei Intel Xeon Scalable Processors (Xeon-SP)[1] mit je 24 Kernen, die per AVX-512 rund 2 TFlops Rechenleistung pro CPU liefern.
Alle 309.504 Kerne zusammen leisten also theoretisch 26,7 Petaflops, das Leibniz-Rechenzentrum (LRZ) erwartet 20,4 PFlops Linpack-Rechenleistung – das wäre derzeit Platz 3 auf der Top500-Liste[2] kurz vor dem Piz Daint aus der Schweiz[3]. Letzterer schöpft seine Kraft aber vor allem aus Tesla-Rechenbeschleunigern, während der SuperMUC-NG eben die AVX-512-Einheiten seiner x86-Prozessoren nutzt.
6304 Rechenknoten sind als sogenannte "Thin Nodes" mit je 96 GByte RAM ausgestattet, 144 weitere Fat Nodes mit je 768 GByte; das ergibt insgesamt 715 TByte Hauptspeicher. Als Verbindung kommt Intel Omni Path Architecture (OPA) zum Einsatz, direkt in den Prozessoren angebunden.
Wie beim bisherigen SuperMUC[4] kommt in den einzelnen Servern wieder eine direkte Warmwasserkühlung zum Einsatz, um die Energieeffizienz zu steigern. Rechen-Jobs werden Energie-optimiert ausgeführt, indem die beteiligten Prozessoren ihre Taktfrequenz an passen. Die Phase-2-Aufrüstung des SuperMUC 2015 steht mit 2,8 PFlops derzeit auf Platz 45 der Top500[5].
Zusätzlich bekommt der SuperMUC-NG eine separat laufende Cloud-Komponente mit 64 Knoten, von denen 32 mit je einer Nvidia Volta 100 bestückt sind, beispielsweise zur Visualisierung von Simulationsdaten.
SuperMUC-NG läuft unter SuSE Linux Enterprise (HPC Module), Version 12. Als paralleles Dateisystem dient IBM Spectrum Scale (GPFS).
SuperMUC-NG wird im Rahmen eines Strategie- und Finanzierungsplanes für das Gauss Centre for Supercomputing (GCS) gemeinsam von Bund und Freistaat Bayern je zur Hälfte finanziert. Die Gesamtkosten des Projektes betragen bei einer Laufzeit von 6 Jahren 96 Millionen Euro. Darin sind die Kosten für Energie, Wartung und Personal eingeschlossen.
URL dieses Artikels:http://www.heise.de/-3918072
Links in diesem Artikel:[1] https://www.heise.de/meldung/Intels-Xeon-Prozessorfamilie-Skylake-SP-laeuft-vom-Stapel-Erste-Benchmark-Ergebnisse-gegen-AMD-Epyc-3765089.html[2] https://www.heise.de/meldung/Supercomputer-China-wieder-first-America-second-3889197.html[3] https://www.heise.de/meldung/Top500-der-Supercomputer-Schweizer-Supercomputer-als-Europas-Spitzenreiter-unter-den-Top10-2048325.html[4] https://www.heise.de/meldung/Leistung-des-Hochleistungsrechners-SuperMUC-verdoppelt-2730663.html[5] https://www.top500.org/system/178544[6] mailto:ciw@ct.de
Copyright © 2017 Heise Medien

Mit dem Azure Bot Service können Entwickler automatisierte Chat-Bots erstellen. Cognitive Services Language Understanding (LUIS) dient dem Verständnis natürlicher Sprache und ist aus dem Projekt Oxford hervorgegangen.
Der Microsoft Azure Bot Service und die Microsoft Cognitive Services Language Understanding sind nun allgemein verfügbar. Letzteren Dienst hatte Microsoft 2015[1] ursprünglich als Bestandteil von Projekt Oxford in die Betaphase geschickt, damals noch unter dem Namen Language Understanding Intelligent Service. Den Namen und die Plattform hat Microsoft inzwischen geändert, das Akronym LUIS jedoch beibehalten. Im Sommer 2016[2] ist Project Oxford in den Cognitive Services aufgegangen.
Der Azure Bot Service ist eine Plattform, mit der Entwickler Chat-Bots erstellen. Der Dienst bietet einige Vorlage unter anderem als Frage-und-Antwort-Bot oder zum Ausfüllen von Formularen. Als Programmiersprache kommen C# oder Node.js zum Einsatz. Insgesamt vierzehn vorgefertigte Channels kennt der Dienst zur Interaktion mit den Endanwendern, darunter Skype, Facebook Messenger und Cortana. Mit der allgemeinen Verfügbarkeit sind zusätzliche Sprachen hinzugekommen, und Microsoft bietet Premium Channels an, die unter anderem eine in Websites eingebettete Kommunikation ermöglichen und eine Verfügbarkeit von 99,9 % garantieren.

Language Understanding ist eine Schnittstelle zum Verständnis natürlicher Sprache, wie Anwender es von digitalen Assistenten gewohnt sind. Entwickler können für ihre Apps diverse Sprachmodelle nutzen und eigene erstellen, die auf bestimmte Anwendungen und Bereiche ausgelegt sind. Das System erkennt sogenannte Intents, also die Absichten des Nutzers, und zugehörige Entities mit Zusatzinformationen. Aus dem Text "Buche mir ein Ticket nach Paris" erkennt das System den Intent Flugbuchung und die Entity Paris. Die jeweiligen Intents lassen sich über Funktionen anbinden, die als Parameter die Entities erhalten.
Mit der allgemeinen Verfügbarkeit lassen sich in LUIS nun 500 Intents und 100 Entities verwalten. Außerdem erweitert Microsoft die erweiterten Funktionen für weitere Sprachen. So schlägt LUIS Phrasen für sieben neue Sprachen, darunter Deutsch vor. Vorgefertigte Entities waren bisher nur in Englisch verfügbar. Deutsche Entwickler müssen weiterhin darauf verzichten, aber die Sprachen Französisch und Spanisch sind hinzugekommen.
Weitere Details lassen sich dem Blogbeitrag[3] entnehmen. Demnach haben sich während der Beta gut 240.000 Entwickler für die Azure Bot Services registriert. 760.000 Entwickler aus sechzig Ländern nutzen die Cognitive Services, die allerdings nicht auf LUIS beschränkt sind.
URL dieses Artikels:http://www.heise.de/-3917927
Links in diesem Artikel:[1] https://www.heise.de/meldung/Maschinelles-Lernen-Microsoft-erweitert-Beta-Programm-fuer-Project-Oxford-2860576.html[2] https://www.heise.de/meldung/Maschinelles-Lernen-Microsoft-teilt-Project-Oxford-auf-3265437.html[3] https://azure.microsoft.com/en-us/blog/announcing-the-general-availability-of-azure-bot-service-and-language-understanding-enabling-developers-to-build-better-conversational-bots/[4] mailto:rme@ct.de
Copyright © 2017 Heise Medien


Die Zahl vernetzter Geräte hat im Internet der Dinge massiv zugenommen. Sie stellen eine wachsende Gefahr dar, zumal ihre Anfälligkeit für Attacken unterschätzt wird. Auch die Bundeswehr sieht sich mit erhöhten Anforderungen an IT-Sicherheit konfrontiert.
Ein verzweifelter Familienvater steht mit seiner Frau und zwei heulenden Kindern vor dem Eingang zum Vergnügungspark. Er habe die Eintrittskarten ausgedruckt, aber leider zu Hause vergessen, erklärt er der Dame an der Kasse. Ob sie nicht einfach schnell seinen Mailaccount öffnen und die Tickets noch einmal ausdrucken könne? Sonst wären zwei Stunden Fahrt umsonst gewesen. Inzwischen ist auch die Ehefrau in Tränen aufgelöst. Die Kassiererin kann das nicht länger ansehen, ruft die Mail des Besuchers (der ihr vertrauensvoll das Passwort nennt) auf, gibt den Druckbefehl.
Was dann passierte, erinnerte Martin Göttler (Firma MagSoft) der bei der Cyber Defence Conference[1] in Bonn von dem Vorfall berichtete, nicht mehr in allen Einzelheiten. Jedenfalls brach das Computersystem des Vergnügungsparks zusammen, nachdem über den Druckbefehl Schadsoftware eingeschleust worden war, was den Betreiber erpressbar machte. Die Cyberattacke ereignete sich vor wenigen Jahren in den USA.
Drucker dürften zu den ersten vernetzten Geräten zählen, die keine Computer waren. Im Zusammenhang mit dem Internet der Dinge hat die Zahl dieser Geräte mittlerweile exponentiell zugenommen. In der Regel spielen Sicherheitserwägungen bei ihnen jedoch eine deutlich geringere Rolle als bei "richtigen" Rechnern.
Solche Geräte seien daher eine unterschätzte Gefahr, sagte Peter Weidenbach vom Fraunhofer-Institut für Kommunikation, Informationsverarbeitung und Ergonomie (FKIE). Er unterstrich das mit einer Live-Demonstration: Während seines Vortrags spielte er Malware auf einen Drucker, auf dessen Display auf einmal ein Totenkopf mit zwei gekreuzten Schwertern erschien und der ansonsten jeden weiteren Betrieb einstellte.
Die Gesamtkosten für so einen Angriff lägen bei weniger als 10.000 Euro, der Schaden für eine Firma mit 1.000 Mitarbeitern könne sich aber leicht auf 75.000 Euro beziffern, allein für den Verlust der Drucker. Folgekosten für Produktionsausfälle oder verpasste Termine kämen noch hinzu. Zudem könne vom Drucker auch ein Tunnel ins Netzwerk gelegt und darüber weitere Geräte infiziert oder Daten gestohlen werden.
Eine Sicherheitsbewertung müsse daher für jedes vernetzte Gerät vorgenommen werden, forderte Weidenbach. Den hier bestehenden Nachholbedarf unterstrich er mit dem Hinweis, dass im Newsticker von heise online allein im letzten Monat über 10 Fälle von Sicherheitslücken in vernetzten Geräten berichtet worden sei. "Und das ist nur die Spitze des Eisbergs", betonte er. Es gebe noch weit mehr Schwachstellen, die es nicht in die Nachrichten schafften.
Wie ausgeklügelt manche Angriffe erfolgen verdeutlichte Volker Kozok vom Bundesverteidigungsministerium am Beispiel einer Attacke auf die Demokratische Partei in den USA während des Präsidentschaftswahlkampfes. Ein russischer Kollege habe ihm bei einer Konferenz freimütig bestätigt, dass dieser Angriff, der unter dem Kürzel APT (Advanced Persistent Threat) 29 oder "Hammertoss" bekannt ist, in russischen Labors entwickelt worden sei. Dabei wurden zunächst E-Mails verschickt, die lediglich eine einfache Routine enthielten. Die wiederum aktivierte eine tägliche Abfrage nach Nachrichten auf einem bestimmten Twitter-Account, wo dann ein Link gepostet wurde – "stets während der russischen Arbeitszeiten", wie Kozok betonte –, der den Download eines Bildes veranlasste. Die darin versteckte Malware veranlasste die infizierten Rechner zum Hochladen von Daten in eine Cloud.
"Die Fortschritte in der Digitalisierung betreffen die Bundeswehr massiv", sagte Armin Fleischmann, Abteilungsleiter Planung im neu eingerichteten Kommando Cyber- und Infomationsraum (KdoCIR) der Bundeswehr[2]. Dieser neue Organisationsbereich sei am 5. April 2017 aufgestellt worden, nur ein knappes Jahr nach einer entsprechenden Anordnung der Verteidigungsministerin.
Die volle Einsatzfähigkeit werde aber erst im Jahr 2021 erreicht sein, da es Zeit brauche, das nötige Fachpersonal zu rekrutieren. Unterstützung bekommt das CIR dabei von einem Cyber-Cluster, der an der Universität der Bundeswehr München eingerichtet wird. Elf Professuren sollen dort eingerichtet und bis Ende 2018 besetzt sein, erläuterte Gabi Dreo Rodosek von der Bundeswehr-Uni. Mit Stefan Brunthaler habe der erste Professor bereits am 1. Oktober dieses Jahres die Arbeit aufgenommen, sodass ab 1. Januar 2018 die ersten Studenten den Master-Studiengang Cybersicherheit belegen könnten.
Daneben hat die Bundeswehr das "Cyber Innovation Hub" (CIH) eingerichtet, das als Schnittstelle zu Innovationstreibern, insbesondere zur Startup-Szene dienen soll. Der traditionelle Ansatz der Technologieentwicklung mit Eigenmitteln durch das Militär selbst sei überholt, sagte Jan Byok von der der Führungsakademie der Bundeswehr. Stattdessen sollen die Produkte, die die Probleme der Bundeswehr lösen können, von der Gründerszene bereitgestellt werden.
Jan Andresen, der selbst aus der freien Wirtschaft kommt und jetzt das CIH betreut, sah aber einige Reibungspunkte. So beiße sich die bei der Bundeswehr übliche Beschaffungsdauer von zwei Jahren und mehr mit der Dynamik von Startups, die sich alle paar Jahre erneuerten. Die beim Militär verbreitete Angst, Fehler zu begehen, sei auch nicht förderlich. Ein weiteres Hindernis seien starre Regeln bei der Personalgewinnung: Hochqualifizierte Leute mit 20 oder 30 Jahren Erfahrung könnten nicht engagiert werden, weil sie über keinen Hochschulabschluss verfügten.
Das CIH hat bis 2019 Zeit, sich zu bewähren. Für diese drei Jahre stehen 30 Millionen Euro zur Verfügung. Ob das wohl reiche, fragte Byok und Andresen antwortete: "Ich würde sogar Geld zurückgeben, wenn ich Prozesse neu schreiben dürfte."
(Hans-Arthur Marsiske) /
URL dieses Artikels:http://www.heise.de/-3917942
Links in diesem Artikel:[1] https://www.dwt-sgw.de/veranstaltungen/veranstaltungen-der-sgw/detail/?tx_dwtevents%5Bevent%5D=374&cHash=aa1ab3c8de81abaf0b71fb3a100bc341[2] https://www.heise.de/meldung/Die-Bundeswehr-auf-dem-neuen-digitalen-Gefechtsfeld-3824909.html[3] mailto:jk@ct.de
Copyright © 2017 Heise Medien


(Bild: Fabian A. Scherschel / heise online)
Nach Jahren der Weigerung hat Microsoft das Protokoll OpenSSH in die Kommandozeile von Windows eingebaut. Für den Produktivbetrieb eignet sich das Ganze allerdings noch nicht.
Microsoft hat still und leise einen OpenSSH-Client und -Server in die Kommandozeile von Windows 10 integriert. OpenSSH ist seit Jahrzehnten der de-facto Standard für die Administration von Linux- und Unix-Servern, bisher weigerte sich Microsoft allerdings beharrlich, das Protokoll in sein Betriebssystem zu integrieren. Natürlich stehen Admins seit jeher Programme von Drittentwicklern zur Verfügung, um das Protokoll unter Windows zu verwenden – das bekannteste Tool dieser Art ist wohl PuTTY.
Nachdem Microsoft schon mit dem Linux Subsystem für Windows[1] von seiner harten Linie gegen das quelloffene Konkurrenz-Betriebssystem abgerückt war, haben die Entwickler nun OpenSSH auch unabhängig von dieser Komponente in Windows integriert. Installieren lassen sich die OpenSSH-Tools über den Punkt "Optionale Features" der Windows-10-Systemeinstellungen. In einer langen Liste mit Schriftarten und optionalen Sprachmodulen verstecken sich dort die Einträge "OpenSSH Client (Beta)" und "OpenSSH Server (Beta)". Nach der Installation der Komponenten und einem Neustart lassen diese sich nun über die herkömmliche Kommandozeile sowie die PowerShell nutzen.

Wie am Zusatz "Beta" erkennbar ist rät Microsoft davon ab, diese Funktionen im Produktiv-Betrieb einzusetzen. Das entspricht auch der Einschätzung der c't-Kollegen, die einen Blick auf die neuen Funktionen geworfen haben. Bisher ist der SSH-Client demnach nicht stabil oder umfangreich genug, dass ein versierter Admin dafür sein Lieblings-SSH-Tool wegwerfen würde. Vor allem die Terminal-Emulation des Windows-Clients lässt noch viele Wünsche offen und der in Windows integrierte OpenSSH-Server funktioniert an manchen Stellen gar nicht.
Allem Anschein nach hat Microsoft diese Funktionen auch nicht in Windows eingebaut, um Linux- oder Unix-Admins zu helfen. Es scheint sich um Entwicklerfunktionen zu handeln, die für den Betrieb anderer Komponenten benötigt werden.
Weiterführende Informationen zu SSH-Clients auf Windows finden Sie in der aktuellen Ausgabe der iX[2].
URL dieses Artikels:http://www.heise.de/-3917695
Links in diesem Artikel:[1] https://www.heise.de/meldung/Hands-on-Das-neue-Linux-Subsystem-in-Windows-10-3163994.html[2] https://www.heise.de/ix/heft/Wie-im-falschen-Film-3892743.html[3] mailto:fab@heise.de
Copyright © 2017 Heise Medien

ThoughtWorks hat im November eine neue Edition seiner halbjährlichen Studie veröffentlicht. Bedeutungszuwachs sieht der "Technology Radar" vor allem bei Blockchain und Kubernetes.
Der zweimal jährlich erscheinende Technology Radar Report des weltweit tätigen IT-Dienstleisters ThoughtWorks gibt einen Überblick über die angesagten Themen und Technologien im Bereich der Softwareentwicklung. Die Studie beruht auf Beobachtungen, Gesprächen und Projekterfahrung mit Kunden. Im aktuellen Radar liegen die Schwerpunkte auf der steigenden Akzeptanz von Blockchain, Kubernetes als gängiger Plattform zur Containerorchestrierung, dem steigenden Interesses an Open-Source-Projekten in China und der wachsenden Popularität der Cloud als Rechennetz in Unternehmen.
Die Blockchain gewinnt zunehmend an Bedeutung als Basistechnologie für verteilte Register und sogenannte „Smart Contracts“ (Verträge auf Basis von Computerprotokollen) – obwohl Kryptowährungen wie Bitcoin, die ebenfalls auf Blockchain basieren, immer wieder zu Verunsicherung[1] rund um die Technologie sorgen. Mit dem, laut Technology Radar gestiegenen Reifegrad der Blockchain, lässt sich das dennoch gestiegene Vertrauen von Unternehmen in die neuen Mechanismen, die der Blockchain-Implementierung zugrunde liegen, erklären. Daher dürften sich immer mehr Branchen, die Bedarf an Systemen für verteilte Register haben, um den Vertraulichkeitsanforderungen ihrer Kunden gerecht zu werden, mit den Möglichkeiten der Blockchain auseinandersetzen.
Kubernetes hat sich zu dem Betriebssystem für die Containerorchestrierung gemausert. Dies liegt zum Einen an der offenen und modularen Architektur und zum Anderen an dem wachsenden Ökosystem von Tools rund um Kubernetes. Da immer mehr Produkte Kubernetes als Ökosystem nutzen, sei damit, nach Einschätzung von ThoughtWorks, die nächste Abstraktions-Ebene nach Microservices und Containern erreicht. Das lasse zudem den Schluss zu, dass Entwickler moderne Software-Architekturen trotz der inhärenten Komplexität verteilter Systeme effektiv nutzen könnten.
Die Cloud ist in vielen Unternehmen dank fallender Preise und höherer Leistungsfähigkeit nun mehr Standard. Außerdem werden Cloud-Anwendungen weiter entwickelt und bieten neben Basisfunktionen mittlerweile auch Antworten auf spezifischere Anforderungen. Auf dem Vormarsch sind, laut ThoughtWorks, ebenfalls Poly-Cloud Strategien. Entsprechend dem Best-of-Breed-Modell suchen sich Unternehmen hierbei aus unterschiedlichen Anbietern den jeweiligen besten Mix für ihre Workloads in der Cloud aus.
Durch die politische und gesellschaftliche Öffnung Chinas, ist es großen chinesischen Unternehmen wie Alibaba und Baidu möglich, ihre Open Source Frameworks, Tools und Plattformen weltweit zugänglich und nutzbar zu machen. ThoughtWorks geht davon aus, dass angesichts der vielen Software-Projekte im boomenden chinesischen Markt die Anzahl und die Qualität von entsprechenden Open-Source-Projekten auf GitHub und anderen Open-Source-Plattformen rasant steigen wird.
Die komplette Auswertung gibt es auf der Webseite[2].
URL dieses Artikels:http://www.heise.de/-3905054
Links in diesem Artikel:[1] https://www.heise.de/meldung/Kursausschlaege-bei-Bitcoins-werden-heftiger-3914044.html[2] https://www.thoughtworks.com/radar[3] mailto:kkr@heise.de
Copyright © 2017 Heise Medien

Die neue Version des CMS bringt unter anderem überarbeitete Administrationswerkzeuge und eine verbesserte Vorschaufunktion.
Das erste Release von TYPO3 9 eröffnet eine Folge von mehreren Sprint-Releases, die mit der Veröffentlichung von TYPO3 9.5 LTS Anfang Oktober endet. In TYPO3 9.0 [1] haben die Entwickler drei Bereiche angepackt: mehrsprachige Webseiten, Administration, Vorschaufunktion und Seitenbaum.
![]()
Die überarbeiteten Admin-Tools sind direkt in das TYPO3-Backend integriert. Der neue Seitenbaum nutzt jetzt SVG.
Der neue Systemwartungsbereich ist eine Weiterentwicklung des Install Tools. Hier können Admins die Instanz konfigurieren, das System überprüfen, das Setup testen, Applikationen von Drittanbietern konfigurieren und das CMS aktualisieren. Die Systemwartung ist nun direkt in das Backend integriert und übersichtlicher geworden. Der neue Extension Scanner prüft die Installation, welche Anpassungen für eine Upgrade auf eine neue TYPO3-Version nötig sind.
Das Lokalisierungssystem zur Verwaltung mehrsprachiger Websites wurde gestrafft und vereinfacht. Der Seitenbaum, der die gesamte Struktur der Website darstellt, wurde einem Refactoring unterzogen. Die Grafik nutzt jetzt SVG. Die Vorschaufunktion präsentiert die Ansicht der Seite jetzt für mehrere definierte Geräte.
URL dieses Artikels:
https://www.heise.de/ix/meldung/Content-Management-TYPO3-9-0-mit-verbesserter-Systemwartung-3916967.html
Links in diesem Artikel:
[1] https://typo3.org/news/article/typo3-v900-launched/
[2] mailto:odi@ix.de

In Atom 1.23 können Entwickler Pakete als Handler für bestimmte URIs registrieren. Außerdem lassen sich einzelne Befehle aus der Ansicht der Command Palette ausblenden.
GitHub hat Version 1.23 des plattformübergreifenden Open-Source-Editors Atom veröffentlicht. Neben den üblichen Bugfixes enthält der Editor einige Neuerungen, die vor allem den Autoren und Nutzern externer Pakete zugute kommen. Darüber hinaus hat das Team die im November vorgestellte[1] Erweiterung Teletype zum gemeinsamen Bearbeiten von Dateien in Version 0.3.0 herausgegeben, die vor allem Bugfixes und Verbesserungen bei den Netzwerkverbindungen enthält.
Entwickler können mit dem aktuellen Atom-Release ihre Erweiterungspakete als Handler für bestimmte URIs registrieren. So können sie beispielsweise alle Aufrufe von atom:://mein-paket/ mit einer Methode bearbeiten. Dazu müssen sie die package.json-Datei um ein uriHandler-Objekt erweitern und eine dedizierte Methode zum Behandeln des Einsprungs über die URI in ihr Paket integrieren. Auf der Dokumentationsseite[2] weist GitHub darauf hin, dass eine Funktion zum Behandeln von URIs, die andere Anwendungen wie Webbrowser auslösen, sehr mächtig ist und Entwickler verantwortungsvoll damit umgehen müssen.
Auf keinen Fall sollten Pakete Aktionen hinter dem Rücken des Nutzers ausführen wie das Installieren weiterer Pakete ohne Rückfrage. Als Beispiel für den verantwortungsvollen Umgang nennt die Dokumentation das Klonen eines Repositorys: Ein URI-Handler, der den Prozess ohne Rückfrage anstößt, sei aggressiv, einer, der den Nutzer fragt, ober er das Repo klonen möchte und es daraufhin erledigt, sei dagegen okay. Das Team kündigt an, Pakete mit URI-Handlern, die nicht den Richtlinien entsprechen, aus der Atom-Package-Registry zu entfernen.
Mehr den Nutzern von Paketen als deren Entwicklern kommt zugute, dass Atom neuerdings das Verhalten von APIs ändert, über die Erweiterungen auf Ereignisse reagieren wie beispielsweise über TextBuffer.onDidChange, das Pakete über jede Textänderung im aktuellen Buffer informiert. Die Aufrufe erfolgt nun basierend auf Transaktionen, die jeweils eine Gruppe von Änderungen zusammenfasst, die als einheitlicher Schritt rückgängig gemacht werden können. Die Neuerung soll die Funktionsweise existierender Erweiterungen nicht beeinflussen.
Neu ist zudem die Möglichkeit, Befehle zwar in der Registry von Atom einzutragen, sie aber in der Command Palette zu verstecken. Dazu fügen Nutzer in den atom.command.add-Block den Befehl hideInCommandPalette: true ein. Nützlich ist die Neuerung vor allem für Befehle, die in erster Linie ein Tastenkürzel definieren. Die Issue-Seite[3] nennt als Beispiel "Vim Mode Plus: Set Input Char M".
Erwähnenswert ist noch, dass das GitHub-Package von Atom den Index nicht mehr sperrt, um index.lock-Fehler zu verhindern, wenn Nutzer Git-Befehle verwenden, während Atom im Hintergrund läuft. Weitere Details zu Atom 1.23 lassen sich dem Blogbeitrag[4] entnehmen. Die vollständige Liste der Neuerung findet sich in den Release Notes[5]. Letztere enthalten Links zum Source und plattformspezifischen Binaries des Open-Source-Editors.
URL dieses Artikels:http://www.heise.de/-3916887
Links in diesem Artikel:[1] https://www.heise.de/meldung/GitHub-Atom-Texteditor-bekommt-eine-Teamfunktion-3891301.html[2] http://flight-manual.atom.io/hacking-atom/sections/handling-uris/[3] https://github.com/atom/command-palette/pull/92[4] http://blog.atom.io/2017/12/12/atom-1-23.html[5] https://github.com/atom/atom/releases/tag/v1.23.0[6] mailto:rme@ct.de
Copyright © 2017 Heise Medien

Im Gesundheitsbereich kommunizieren noch immer viel zu wenige Anwendungen miteinander, von den aufkommenden Fitness-Apps ganz zu schweigen. Der neue Standard FHIR soll das Chaos beenden.
Unterschiedliche Hersteller sorgen für einen Gerätezoo und abgekapselte Systeme im Gesundheitssektor – nun gesellen sich auch noch die Fitness-Apps der Verbraucher hinzu. Kurz: Ärzte und Krankenhäuser sehnen sich oft nach mehr Interoperabilität ihrer IT und verbundener Werkzeuge. Genau hier sollen die Fast Healthcare Interoperability Resources (FHIR) ansetzen, wie Thomas Kalippke in der aktuellen iX 12/2017 [1] schreibt.
Dabei gibt es im Gesundheitsbereich bereits einige Standards, doch bei FHIR handelt es sich um ein übergreifendes Paket. Es umfasst ein Datenmodell, Value Sets, Validierungswerkzeuge und Datenbanken sowie erste Beispielimplementierungen. Dank der standardisierten Formate soll der Patient sich nicht nur die klassische Krankschreibung auf dem Papier ersparen können, Ärzte sollen ebenso auf Daten aus Fitness-Trackern auf dem Smartphone zugreifen können.
Wie Entwickler FHIR in ihren Anwendungen einsetzen können und wie der Standard im Detail aufgebaut ist, finden Interessierte im Artikel.
Siehe dazu auch:
URL dieses Artikels:
https://www.heise.de/ix/meldung/FHIR-Nur-ein-weiterer-Standard-oder-die-Zukunft-im-Gesundheitssektor-3916360.html
Links in diesem Artikel:
[1] https://www.heise.de/ix/heft/Ruhepuls-3892764.html
[2] https://www.heise.de/ix/heft/Ruhepuls-3892764.html
[3] mailto:fo@heise.de

Ab sofort können sich Interessierte für die Fachkonferenz zu den Themen Machine Learning und künstliche Intelligenz registrieren, die im April in Köln stattfindet und sich in erster Linie an Softwareentwickler, Data Scientists und Forscher richtet.
Vom 24. bis 26. April 2018 feiert die Minds Mastering Machines[1] in Köln ihre deutsche Premiere. Die Fachkonferenz widmet sich den Themen Künstliche Intelligenz (KI) und Machine Learning (ML). Sie ist auf ein Fachpublikum ausgerichtet, das vor allem aus Softwareentwicklern und -architekten, Data Scientists, Projektleitern sowie Forschern besteht. Die Veranstalter haben das Programm nun veröffentlicht[2], das sich aus einer zweitägigen Hauptkonferenz mit 36 Vorträgen und einem Workshop-Tag zusammensetzt.
Da viele IT-Fachkräfte sich erst seit Kurzem mit dem Thema beschäftigen, richtet sich einer der drei Tracks explizit an Einsteiger, während bei den anderen beiden fortgeschrittene Themen und praktische Erfahrungen im Mittelpunkt stehen. Teilnehmer bekommen unter anderem eine Einführung in Deep Learning, einen Vergleich der unterschiedlichen ML-Frameworks, Methoden zum Bewerten von ML-Modellen und eine Vorstellung von Natural Language Processing. Ein allgemeiner Überblick über die Fachbegriffe mit einer Einordnung der unterschiedlichen Methoden fehlt ebenso wenig wie Vorträge über die Angebote der Cloud-Dienstleister und den Einsatz von GPUs.
Zahlreiche Vorträge widmen sich dem praktischen Einsatz von Methoden des Machine Learning von der Rechnungsprüfung über die Lagerlogistik bis hin zum Schutz von Hochleistungslasern. Selbstredend dürfen auch rechtliche und ethische Themen nicht fehlen. So widmet sich ein Talk der Frage, wie Maschinen zu Entscheidungen kommen, die den moralischen Normen entsprechen.
Ab sofort können sich Interessierte zur Minds Mastering Machines 2018 anmelden[3]. Bis zum 2. März gilt ein Frühbucherrabatt, mit dem sich der reguläre Preis der Konferenztickets von 930 auf 770 Euro reduziert. Die Workshops zu Deep Learning mit TensorFlow, Machine Learning mit Python und ML im Kontext der Industrie 4.0 kosten jeweils 450 Euro. Teilnehmer, die einen Workshop zusammen mit dem regulären Programm buchen, erhalten einen Rabatt von 50 Euro. Wer über den Fortgang der Konferenz auf dem Laufenden bleiben möchte, kann sich für den Newsletter[4] eintragen oder den Veranstaltern auf Twitter[5] folgen.
Die Veranstalter der Minds Mastering Machines sind heise Developer, iX und der dpunkt.verlag, die Teil der Heise Gruppe sind.
URL dieses Artikels:http://www.heise.de/-3915811
Links in diesem Artikel:[1] https://www.m3-konferenz.de/[2] https://www.m3-konferenz.de/programm.php[3] https://www.m3-konferenz.de/anmeldung.php[4] https://www.m3-konferenz.de/benachrichtigen.php[5] https://twitter.com/M3_Konferenz[6] mailto:rme@ct.de
Copyright © 2017 Heise Medien

(Bild: Microsoft)
Mit der neuen, in Visual Studio integrierten Programmiersprache Q# will Microsoft Entwicklern die Programmierung von Quantencomputern vereinfachen. Die Preview des Quantum Development Kit steht ab sofort zur Verfügung.
Zur diesjährigen Unternehmenskunden-Konferenz Ignite hatte Microsoft-Chef Satya Nadella ausgiebig über die Aktivitäten des Konzerns in Sachen Quantencomputing gesprochen[1]. Die im September in Aussicht gestellte Testumgebung für Entwickler, die sich schon heute in die Programmierung auch zukünftiger Quantencomputer einarbeiten möchten, liegt ab sofort als Preview vor[2]. Das Quantum Development Kit[3] umfasst neben der neuen Programmiersprache Q# (sprich: Q sharp) einen Quantencomputer-Simulator sowie ergänzende Ressourcen für die Programmierung solcher Rechner.
Mit der neuen Entwicklungsumgebung will Microsoft auch Entwickler ansprechen, die sich nicht in die komplexen Tiefen der Quantenphysik einarbeiten wollen, um Quantencomputer programmieren zu können. Das Quantum Development Kit fügt sich dazu nahtlos in Visual Studio[4] ein und bietet damit eine vielen Entwicklern vertraute Umgebung. Der integrierte Simulator lässt sich lokal installieren und soll mit gängiger Notebook-Hardware auskommen. Entwicklern stehen damit immerhin 30 logical Qubits zur Verfügung, um erste Programme zu testen und zu debuggen. Wird eine leistungsfähigere Simulationsumgebung benötigt, stellt Microsoft einen weiteren Simulator in der Azure-Cloud parat, der mindestens 40 logical Qubits simulieren können soll.
In der vorliegenden Version eignet sich das Quantum Development Kit für die Programmierung aktuell verfügbarer Quantencomputer. Es soll aber ebenso das von Microsoft favorisierte Konzept[5] eines Quantencomputers auf Basis sogenannter topologischer Qubits unterstützen. Bis solche Systeme serienreif sind, sollen Wissenschaftler und Softwareentwickler Microsofts Entwicklungsumgebung primär als Spielfeld nutzen, um sich mit den Besonderheiten des Quantencomputings vertraut zu machen. „Wir hoffen, dass sie mit Effekten wie Quantenteleportation herumspielen und davon fasziniert sind“, erklärt Krysta Svore, die in Microsofts Quantencomputing-Team für die Entwicklung des Simulators und des Development Kits verantwortlich ist.
URL dieses Artikels:http://www.heise.de/-3915895
Links in diesem Artikel:[1] https://www.heise.de/meldung/Microsoft-Ignite-Neue-Version-von-Windows-Server-und-viel-Cloud-3841641.html[2] https://blogs.microsoft.com/ai/2017/12/11/future-quantum-microsoft-releases-free-preview-quantum-development-kit[3] https://www.microsoft.com/en-us/quantum/development-kit[4] https://www.heise.de/meldung/Visual-Studio-15-5-ist-erschienen-3908577.html[5] https://www.heise.de/tp/features/Microsoft-will-den-Quantencomputer-demokratisieren-3502338.html[6] mailto:map@heise.de
Copyright © 2017 Heise Medien


(Bild: mastersenaiper, gemeinfrei (Creative Commons CC0) )
Deutsche Unternehmen haben die Verwaltung der digitalen Identität als Markt ausgemacht, in dem sie dem Silicon Valley Paroli bieten können. Ein Service soll im Frühjahr starten und Autorisierungsdiensten etwa von Google oder Facebook Konkurrenz machen.
Die Identitätsplattform Verimi großer deutscher Konzerne bekommt einen Neuzugang mit Erfahrung bei Sicherheitstechnologie. Als zehntes Mitglied trat die Firma Giesecke+Devrient Verimi bei[1], die unter anderem stark im Geschäft mit Sicherheitschips für Bankkarten oder SIM-Modulen in Handys ist.
Die Idee hinter Verimi[2] ist eine Art Generalschlüssel für Web-Dienste: Der Nutzer registriert sich bei der Plattform und kann sich damit bei verschiedenen Anbietern einloggen. Verimi setzt als Grundlage für die Identitätsplattform auf das offen Protokoll OAuth 2.0[3], ein SDK mit zugehörigen Dokumentationen[4] liegt bereits vor, die API steht Entwicklern frei zur Verfügung.
Unter den Verimi-Mitgliedern sind die Allianz, Daimler, der Medienkonzern Springer, die Deutsche Bank, die Bundesdruckerei, die Deutsche Telekom und die Lufthansa. Außerdem dabei sind der IT-Spezialist Core sowie der Kartendienst Here, der den deutschen Autobauern Audi, BMW und Daimler gehört. Am Montag wurde in Berlin offiziell der Gesellschaftervertrag unterzeichnet.
Seit Anfang Dezember wird eine Vorversion der Log-In-Funktion in einem Pilotprojekt mit einer geschlossenen Nutzergruppe getestet, wie Verimi mitteilte. Daran nähmen unter anderem die Deutsche Bank, der Fußball-Verein Eintracht Frankfurt sowie Start-ups teil. Die Markteinführung ist für Frühjahr 2018 geplant. Verimi spricht von einer gemeinsamen Registrierungs-, Identitäts- und Datenplattform. Das Kunstwort "Verimi" ist angelehnt an die englischen Begriffe verify (prüfen) und me (mich).
In Deutschland gibt es auch eine Log-In-Allianz um die Fernsehkonzerne RTL und ProSiebenSat.1 sowie United Internet (web.de, GMX). Die Plattformen wollen einen europäischen Gegenpol zu US-Schwergewichten wie Facebook, Google oder Twitter bieten, die ebenfalls die Identifikation über verschiedene Dienste hinweg anbieten.
In Europa gibt es immer wieder Kritik an der Dominanz von Daten-Plattformen aus den USA im Internet. Verimi betont, dass man von Beginn an die Anforderungen der EU-Datenschutzgrundverordnung umsetzen werde, die im Mai Pflicht werden. "Mit der abschließenden Unterzeichnung der Verträge kommen wir der Vision einer europäischen, offenen und branchenübergreifenden Identitätsplattform einen großen Schritt näher", betonte Verimi-Chefin Donata Hopfen.
(dpa) /
URL dieses Artikels:http://www.heise.de/-3915898
Links in diesem Artikel:[1] https://www.presseportal.de/pm/128971/3812894[2] https://www.heise.de/meldung/Deutsche-Datenplattform-Verimi-fordert-Google-Co-heraus-3814139.html[3] https://www.heise.de/developer/artikel/Flexible-und-sichere-Internetdienste-mit-OAuth-2-0-2068404.html[4] https://verimi.de/sandbox/html/sdk.html[5] mailto:jk@ct.de
Copyright © 2017 Heise Medien


(Bild: dpa, Oliver Berg)
Der Bundesverband Digitale Wirtschaft will Virtual- und Mixed-Reality-Systeme mit einer Wissensplattform fördern. Damit wollen sie Möglichkeiten für die professionelle Anwendung der Technik aufzeigen.
Der Bundesverband Digitale Wirtschaft (BVDW)[1] hat eine Wissensplattform für Virtual- und Mixed-Reality-Anwendungen[2] online gestellt. Die Initiative richtet sich vor allem an Unternehmen und will Möglichkeiten für den professionellen Einsatz der neuen Techniken erschließen und aufzeigen. Noch vor gar nicht langer Zeit galt 2017 als das Jahr des Durchbruchs für Virtuelle Realität, aber dazu kam es bisher nicht. "Alle warten noch immer auf den "iPhone-Moment", doch die überschwängliche Begeisterung ist bislang ausgeblieben", sagte Jonas Larbalette, VR-Experte des Partners MediaCom.
Ob es nun um Mixed Reality, Virtual oder Augmented Reality[3] geht, die Plattform will die verschiedenen Anwendungsmöglichkeiten sammeln und der Öffentlichkeit zugänglich machen. Ein Projekt lässt sich mit wenig Aufwand einstellen und steht dann allen Interessenten als Beispiel zur Verfügung. Dadurch entsteht eine zentrale Instanz, die Umsetzungen sammelt, klassifiziert und als eine gemeinsame Diskussions- und Inspirationsgrundlage bildet.
Gerade im Unternehmenseinsatz wird der Technik nach wie vor großes Potenzial zugesprochen. Dabei dürften sich Lösungen für virtuelle Realität, bei der der Nutzer über ein Headset komplett in eine künstliche Welt eintaucht, vor allem im Trainingssektor und zur Überbrückung geografischer Distanzen eingesetzt werden, schätzt Tobias Lucas vom Beratungshaus Accenture. Augmented Reality, bei der in die reale Umgebung virtuelle Gegenstände eingefügt werden, werde sich künftig jedoch ein deutlich größeres Einsatzfeld erschließen.
(dpa) /
URL dieses Artikels:http://www.heise.de/-3913806
Links in diesem Artikel:[1] https://www.bvdw.org/[2] http://realitiesoftheworld.de/[3] https://www.heise.de/ct/artikel/Warum-Microsoft-seine-VR-Brillen-Mixed-Reality-nennt-3820657.html[4] mailto:bbo@ix.de
Copyright © 2017 Heise Medien

Auf der KubeCon geben Unternehmen gerne ihre neuen Veröffentlichungen aus dem Umfeld von Containerisierung und Microservices bekannt. Dazu gehören Kubernetes 1.9 und das Microservice-Framework Metaparticle von Microsoft.
Inzwischen zum vierten Mal veröffentlicht die Cloud Native Foundation (CNCF) in diesem Jahr eine neue Release ihres Kernprojekts Kubernetes. Allerdings haben sie es nicht ganz fertiggebracht, Version 1.9 auf ihrer KubeCon in Austin (6.-8. Dezember) vorzustellen, das angepeilte Verfügbarkeitsdatum ist der 13. Dezember. Bedingt durch die kurze Zeit seit der letzten Release [1] hält sich die Zahl der Neuerungen diesmal in Grenzen. Nennenswert ist die Workload API, die DaemonSets, Deployments, ReplicaSets und StatefulSets zusammenbringt. Außerdem erhält Kubernetes on Windows Beta-Status
Immer mehr Firmen unterstützen die Entwicklungen der CNCF und insbesondere von Kubernetes. 34 neue Sponsoren kann die Stiftung vermelden, darunter HPE, NGINX und Grafana Labs mit Silber-Status. Die chinesische Suchmaschine Baidu erhält den Rang als Gold-Member. Das gleiche gilt für Salesforce und für JFrog, die zudem ihre Software Artifactory zum Verwalten von CI-Servern als Open-Source-Variante zur Verfügung stellen wollen. Zum Platin-Mitglied steigt Alibaba-Cloud auf.
Etliche Projekte, die rund um Container, Microservices und Kubernetes entstanden sind, konnten auf der Konferenz eine runde Versionsnummer bekanntgeben.
Containerd [2], das Docker vor einem Jahr in ein eigenständiges Produkt umgewandelt und im März an die CNCF übergeben hat, hat Version 1.0 erreicht. Seit Version 1.8 kann Kubernetes Containerd direkt als Container-Runtime verwenden, ohne die vollständigen Docker-Tools einzubinden.
Zur Überwachung komplexer Systeme aus Microservices hat Uber Jaeger [3] entwickelt, das auf der KubeCon in Version 1.0 angekündigt wurde. Das Tracing-Werkzeug konnte ursprünglich nur die Schnittstellen bedienen, die Uber selbst benötigte. Das möchte man jetzt öffnen und implementiert Backend-Anbindungen nicht nur an Cassandra, sondern auch zum Beispiel ElasticSearch. Angedacht ist zudem MySQL, ScyllaDB und InfluxDB.
Vereinheitlichtes Logging soll Fluentd [4] ermöglichen, das ebenfalls Versionstand 1.0 erreicht. Darin soll unter anderem die Anbindung an Prometheus und Apache Kafka flüssig laufen. Auch läuft es jetzt unter Windows und ermöglicht Authentifizierung über sein Protokoll.
Buoyant, eigentlich bekannt für Linkerd [5], hat mit Conduit [6] ein neues Werkzeug zum Verwalten von Services mit Kubernetes vorgestellt. Das "Ultraleight Service Mesh" besteht im Kern aus einem Proxy, der lediglich 10 MByte Speicher belegt und sich durch eine geringe Latenz auszeichnet. Auf der anderen Seite bringt es nur einen minimalen Satz an Funktionen, die sich allerdings über gRPC-Plugins erweitern lassen.
Microsoft nützte die Gelegenheit, um zu demonstrieren, wie sich Azure Container Instances [7] in Kubernetes einbinden lassen und gab einen Vorgeschmack auf ihre eigenes Kubernetes-Angebot (AKS). [8] Zudem stellten die Verantwortlichen das Microservice-Framework Metaparticle [9] vor, das mit Blick auf den Einsatz unter Kubernetes entwickelt wurde. Gegenwärtig bietet es JavaScript, Java und .NET.
Interessantes bietet auch der Markt rund um Managed Kubernetes. EasyStack bietet mit EasyStack Kubernetes Service ein Managed Kubernetes, das sie mit Dienstleistungen rund um die (Open-Stack)-Cloud anreichern. Über das Browser-Interface sollen sich typische DevOps-Aufgaben erledigen oder einfach Software aus dem Application Markeplace im Cluster starten lassen.
Das Hamburger Start-up Loodse [10] bietet mit seiner Kubermatic Container Engine ebenfalls ein "Managed Kubernetes". Das Werkzeug soll helfen, Kubernetes Cluster mehr oder weniger automatisiert zu verwalten. Sie gaben in Austin die Verfügbarkeit von Version 2.0 ihres Tools bekannt. Das automatisiert das Setup von Kubernetes unter anderem in der Infrastruktur von Microsoft Azure, TelekomCloud, Google Cloud Platform, Huawei und OpenStack. Dort installiert es Kubernetes 1.8, wofür es auch zertifiziert ist. Mit Kubermatic 2.0 aufgesetzte Cluster lassen sich zudem relativ einfach horizontal skalieren.
Im Rahmen der Konferenz gab die CNCF Ergebnisse einer Umfrage zum Einsatz von Kubernetes bekannt. Zwar dominiert es den Markt der Containerorchestrierer eindeutig, die Zahlen entwickeln sich aber nicht mehr so drastisch wie kurz nach der Veröffentlichung der Software. Immer noch relevant sind Docker Swarm und Mesos. Auch Shell Skripte wurden häufig als Werkzeug genannt. Der Einsatzort verschiebt sich leicht vom eigenen Rechenzentrum in die Cloud, wo Amazon und Google klar die wichtigsten Anbieter sind. Gerade größere Unternehmen (mit mehr als 250 Mitarbeitern) setzen Kubernetes inzwischen auch im Produktivbetrieb ein. Als prominente Beispiele nennt die CNCF das Mitfahrerportal BlaBlaCar und das AR-Spiel Pokémon Go [11].
URL dieses Artikels:
https://www.heise.de/ix/meldung/CloudNativeCon-KubeCon-Alle-lieben-Kubernetes-3913368.html
Links in diesem Artikel:
[1] https://www.heise.de/ix/meldung/Clusterverwaltung-Kubernetes-1-8-erschienen-3846117.html
[2] https://containerd.io/
[3] https://uber.github.io/jaeger/
[4] https://www.fluentd.org/
[5] https://linkerd.io/
[6] https://conduit.io/
[7] https://www.heise.de/ix/meldung/Azure-Container-Instances-startet-einzelne-Container-in-der-Microsoft-Cloud-3785149.html
[8] https://azure.microsoft.com/de-de/blog/introducing-azure-container-service-aks-managed-kubernetes-and-azure-container-registry-geo-replication/?cdn=disable
[9] https://github.com/brendandburns/metaparticle
[10] https://www.loodse.com/
[11] https://www.heise.de/ix/meldung/Pokemon-Go-Neue-Monster-echtes-Wetter-3911447.html
[12] mailto:jab@ix.de