Microsoft und die KI – wie Bing außer Kontrolle Gerät und Microsoft die Schuld bei allen anderen sucht

Es klingt einfach zu schön: ChatGPT macht die Runde und alle Nutzer sind begeistert. Wenn man, als gestandener Konzern, dieses Erfolgsrezept nimmt und auf sein Produkt überträgt – was könnte schief gehen? Ich denke ähnliches hat sich auch Microsoft gedacht, als sie nicht nur Milliarden an Dollar in die Lösung von OpenAI gesteckt haben, sondern als sie voller Stolz die künstliche Intelligenz ihrer Suchmaschine Bing hinzugefügt haben.

Versuch macht klug heißt es dabei so schön, doch dass das Internet und ein Chatbot sich nicht so gut verstehen sollte Microsoft eigentlich schon vor einigen Jahren mit ihrem Experiment Tay gelernt haben. 2016 setze der Konzern hinter Windows seinen Bot ins Netz, der von Twitter lernen sollte, um dank der freundlichen Nutzer besser und intelligenter zu werden. Ein Experiment, welches nur wenige Stunden brauchte, um rassistisch und hasserfüllt zu werden und schließlich vom Netz genommen wurde.

Doch Geschichte wiederholt sich, so bei der aktuellen GPT angetriebenen Version von Bing. Auch wenn die Suchmaschine aktuell nur für Beta-Nutzer zugänglich ist, gibt es aktuell Geschichten über Todesdrohungen der Maschine, Liebeserklärungen samt der Aufforderung sich von der eigenen Frau zu trennen und sehr viel Bewusstsein. Sydney, wie sich die Maschine selbst tauft, hat das Internet in Aufruhe versetzt und Microsoft erkennt, wie schon bei Tay, das die meisten Nutzer nicht unbedingt nur Nettes mit ihren Maschinen im Blick haben.

Nun folgt die Konsequenz: Microsoft möchte die Unterhaltungen in Bing auf maximal fünf Fragen beschränken und ein Tageslimit von 50 Fragen insgesamt einführen. Nach fünf Fragen, so ihre Erkenntnisse, seien alle ernstgemeinten Fragen geklärt.

Ich bin ehrlich, meine Meinung hierzu ist zwiegespalten. Zum einen ist es traurig, dass es notwendig sein muss die Unterhaltungen so schnell zu begrenzen. Zum anderen sollte Microsoft vielleicht lieber nach einer Lösung für das Problem ihrer eskalierenden KI suchen, statt das Erlebnis einfach schlechter zu machen.

Auch ChatGPT hat so einige Probleme und die Nutzer haben auch diese KI an ihre Grenzen getrieben, doch alles auf die Nutzer zu schieben erscheint mir der falsche Weg. Was ist Eure Meinung?

Alexander Pinker
Alexander Pinkerhttps://www.medialist.info
Alexander Pinker ist Innovation-Profiler, Zukunftsstratege und Medienexperte und hilft Unternehmen, die Chancen hinter Technologien wie künstlicher Intelligenz für die nächsten fünf bis zehn Jahre zu verstehen. Er ist Gründer des Beratungsunternehmens „Alexander Pinker – Innovation-Profiling“, der Agentur für Innovationsmarketing "innovate! communication" und der Nachrichtenplattform „Medialist Innovation“. Außerdem ist er Autor dreier Bücher und Dozent an der Technischen Hochschule Würzburg-Schweinfurt.

Ähnliche Artikel

Kommentare

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.

Follow us

FUTURing

Cookie Consent mit Real Cookie Banner