KI_Services

Dank KI können Qualitätskontrollen in der Produktion leichter durchgeführt werden. Bild: iStock/Phuchit 

Microsoft hat sich mit Azure bereits in viele Industrieprojekte eingebracht, in denen es um Fabrikautomatisierung ging. Auf der Build 2019 kündigte das Unternehmen Neuerungen für AI im Edge Computing an. So soll es Container­unterstützung für Cognitive Services zur Nutzung auf Edge-Geräten im Bereich Speech Services (Speech-to-Text und Text-to-Speech), Anomaliedetektion und Form Recognizer geben. In Bild- und Spracherkennung gelten die Redmonder einigen Analysten derzeit als führend.

Die KI-Services sollen künftig auch ohne Cloudanbindung in Containern laufen können: Wichtig zum Beispiel für Produktionsumgebungen, in denen man aus Sicherheitsgründen lieber Daten direkt vor Ort verarbeitet. Auch IBM setzt bei seinen Watson-Services neuerdings auf hybride Szenarien, damit Anwender Daten im Unternehmen jenseits der Cloud für KI nutzen können. Die Services auf Basis von Watson Assistant und Watson OpenScale zum Managen multipler AI-Instanzen, unabhängig von deren Entstehungsort, sollen Unternehmen ermöglichen, KI in ihre Applikationen einzubauen – egal auf welcher Plattform diese liegen.

IBM setzt auf Offenheit: Internen Studien zufolge nutzen 85 Prozent der Watson-Anwender Open-Source-Programmiersprachen und Frameworks wie Python, R und TensowFlow innerhalb der Watson-Welt. Aus Sicht der Marktforscher von Gartner hat die Google-Cloud-Plattform bei den Themen Big Data und Machine Learning leicht die Nase vorn. Als einziger Provider bietet Google eine quelloffene und unabhängige Machine-Learning-Plattform an. Kürzlich hat der Suchmaschinen-Gigant eine erste Betaversion der Deep-Learning-Container vorgestellt: Zunächst gibt es sie mit TensorFlow, Facebooks TensorFlow-Konkurrent PyTorch und R, weitere gängige Systeme rund um KI-Bibliotheken werden wohl folgen. In diesen vordefinierten Entwicklungsumgebungen sollen Anwender Machine-Learning-Modelle direkt umsetzen können. Grundlage ist der Einsatz von Google Kubernetes Engine und Google AI Platform Notebooks. Darunter liegt eine quelloffene Jupyter-Umgebung. Hinter den Services stehen massive Hardwareressourcen.

Amazon prägte zwar mit AWS den Cloudmarkt, hat aber jetzt scheinbar etwas Aufholbedarf bei AI-Services. Auf seiner Konferenz Re:Mars im Juni stellte der Onlinehändler in Showcases vor, wie Unternehmen mit den Tools Amazon SageMaker und RoboMaker vergleichsweise einfach Roboter einsetzen können. Auch neue Anbieter drängen in den AIaaS-Markt: Clarifai und CloudSight zum Beispiel bieten Zugriff auf Bild- und Videoerkennung via API. Auch deutsche Startups überraschen mit konkreten Lösungen: ControlExpert hat einen Algorithmus entwickelt, der Unfallschäden für Versicherungen anhand von Fotos beurteilt, Boot.AI hilft bei der bildbasierten Qualitätskontrolle in der Produktion.

Trotz solcher vorgefertigter Services sollten sich alle KI-Anwender auf das Trial-and-Error-Prinzip einstellen. Ein aktueller IDC-Report zeigt: Die meisten Unternehmen klagen über Probleme in ihren KI-Projekten. Bei einem Viertel liegt die Misserfolgsquote sogar um die 50 Prozent. Als Grund für das Scheitern wurden Fachkräftemangel und unrealistische Erwartungen identifiziert. Dennoch bewegt KI einiges: Immerhin gaben mehr als 60 Prozent der Befragten an, im Zusammenhang mit der Implementierung von KI-Technologie ihr Geschäftsmodell geändert zu haben.

Hier finden Sie den ersten und zweiten Teil des Spezials zum Thema künstliche Intelligenz.

Der Eintrag "freemium_overlay_form_ait" existiert leider nicht.