KI und die Evolution des Interface – Wie User-Experience-Design von künstlicher Intelligenz profitiert Posted on 17.10.201926.11.2024 | by Franzi Kunz Quelle: pixabay Die Customer Experience, sprich die Erfahrungen, die der Kunde im Zusammenhang mit einer Marke, mit einem Produkt macht, stehen mittlerweile im Fokus eines jeden unternehmerischen Handelns. Schon im Jahr 2014 rief das US-Analystenhaus Gartner recht martialisch aus: »Customer Experience Is The New Battlefield «. Diese Schlacht scheint nun geschlagen, überschrieb das renommierte US-Wirtschaftsmagazin Forbes einen Artikel im Sommer 2018 doch mit der Zeile: »Customer Experience Is The New Brand« und belegte die These prompt mit Zahlen. 89 Prozent aller Firmen haben bereits die Customer-Experience – und nicht länger das Produkt selbst oder seinen Preis – als zentrale Strategie ihrer Markenbildung isoliert. Während 80 Prozent dieser Firmen finden, dass ihnen das schon sehr gut gelinge, stimmen dem nur acht Prozent der Kunden zu. Wie kann sich das verbessern? Und was hat KI damit zu tun? KI im User-Centered-Design-Prozess Der Aspekt User Experience (UX) steckt hinter all diesen Überlegungen und Entwicklungen zur Customer Journey. Und um eine gute User Experience zu erzeugen, müssen bereits unzählige Nutzerdaten gesammelt und ausgewertet werden. Denn nur datenbasiert können UX-Designer eine virtuelle Umgebung entwerfen, die den Bedürfnissen der Nutzer optimal entspricht. Denn es gilt: je zufriedener die Nutzer, umso erfolgreicher ein digitales Projekt. UX-Designer erarbeiten ganzheitliche Nutzererfahrungen nach dem sogenannten »menschzentrierten Gestaltungsprozess«. Aber nicht nur die Art und Weise, wie digitale Lösungen genutzt werden, verändert sich durch KI gerade auf revolutionäre Weise. Auch die Benutzeroberflächen wandeln sich. Und so muss User-Centered-Design neben empirischen Kriterien vermehrt auch kognitiven Modellen gerecht werden. KI und die Evolution des Interface Entwickelt vor fast vier Jahrzehnten, ermöglichte die grafische Benutzeroberfläche (im Englischen: graphical user interface, GUI) einem breiten Publikum den Zugang zu einem Computer: Bildschirm, Cursor, Maus – nun konnte man auch ohne Programmierkenntnisse befehlen. Über die Jahrzehnte ist die GUI immer intuitiver geworden. Der Siegeszug von Mobile hat die Zahl der Eingabeaufforderungen und der unterschiedlichen Screens noch einmal drastisch reduziert, die Usability optimiert und vor allem Chatbots und damit das sogenannte Conversational Interface als Empfänger von Eingabeaufforderungen populär gemacht. Doch mithilfe von KI kann man nun immer öfter ganz auf Bildschirme verzichten, da persönliche Assistenten in der Lage sind, gesprochene Befehle in maschinenlesbar umzuwandeln. Hat man also einen entsprechenden Skill entwickelt oder installiert, der es dem Assistenten ermöglicht, sich mit den Standortdaten des eigenen Smartphones zu verbinden und diese Informationen abzurufen, kann man den sprachgesteuerten Assistenten beispielsweise morgens beim Verlassen des Hauses bitten: »Bestelle 10 Minuten, nachdem ich heute Nachmittag aus dem Büro gehe, eine Pizza Funghi zu mir nach Hause!« KI und kreatives Prototyping Im Laufe der Produktentwicklung arbeiten UX-Designer mit Protoypen – egal ob es um Situationen mit Graphic, Conversational oder überhaupt keinem Interface geht. Eines der Tools, mit dem weltweit hunderttausende UX-Designer arbeiten, ist Adobe XD. Seit kurzem unterstützt Adobes KI namens Sensei Designer beim Skalieren der Bildgrößen. Statt das Design einer Website oder einer App manuell für diverse Screen-Größen zuzuschneiden, können Elemente als Gruppe automatisiert skaliert werden. Denn Adobe Sensei erfasst im Hintergrund den Abstand der Elemente automatisch und berechnet so mithilfe von Machine-Learning optimale Größen und Positionen für sämtliche Screengrößen. Das spart Designern jede Menge Zeit, die sie ihren kreativen Talenten statt nervigem Resizing widmen können. KI und automatisiertes Coding Obwohl viele Lösungen von Gestaltern am Ende magisch anmuten und Nutzer begeistern, vergeht zwischen Draft und Launch oft viel Zeit. Sehr viel Zeit. Ein Kopenhagener Start-up mit jungen Designern und Software-Ingenieuren aus allen Ecken Europas will das unter Einsatz von Machine-Learning verändern: UIzard.io entwickelt Tools wie »Pix2Code« oder auch »Code2Pix«. Mithilfe der Technologie soll bald aus Handzeichnungen oder Wireframes ein Protoyp werden – und zwar binnen weniger Minuten. Zugleich soll ein Screenshot genügen, den Code dahinter zu identifizieren und zu verarbeiten. Das Tool verspricht, eine Brücke zu schlagen zwischen UX-Designern und Frontend Developern, ohne eine der Berufsgruppen obsolet zu machen, aber zugleich iterative Prozesse zu automatisieren und den Beteiligten wertvolle Zeit zu schenken. KI: Noch mehr Use Cases KI-Innovationen spielen nicht nur im UX-Design eine wichtige Rolle. In brandneuen Whitepaper »Künstliche Intelligenz – 25 Use-Cases, um mit KI erfolgreich zu sein« zeigen wir, wie Unternehmen im B2C und B2B KI nutzen, um User-Experience-Design zu verbessern Online-Marketing und Marketing-Automation zu optimieren für exzellente Produkt- und Stammdatenverwaltung zu sorgen den Handel zu revolutionieren KI: Anbieter und Begriffe im Überblick Damit Maschinen lernen und individuell entwickelte Projekte gedeihen können, wird weltweit auf die Infrastruktur großer Unternehmen zurückgegriffen. Wer in diesem Bereich – von Google bis Amazon AWS über Microsoft Azure und Adobe Sensei – die wichtigsten Player sind, welche buchbaren Services sie für Unternehmen bieten und wie man sie optimal nutzt, auch das wird im neuen Whitepaper näher erklärt. Das Whitepaper steht hier exklusiv für Händler, Hersteller und Verlage zum kostenlosen Download bereit. Jetzt teilen (15 Bewertung(en), Schnitt: 4,67 von 5)Loading... Categories E-Commerce