KI-gesteuerte Fehlinformationen erschüttern die Big Four Beratungsunternehmen

Eine Gruppe von Akademikern hat sich entschuldigt, nachdem sie unwissentlich Google Bard verwendet hatte, um fehlerhafte Behauptungen über die Big-Four-Beratungsgesellschaften in einer formellen Eingabe an das australische Parlament zu erstellen. Dieser Vorfall kam während einer parlamentarischen Überprüfung des beruflichen Verhaltens in der Beratungsbranche ans Licht, die möglicherweise zu einer Umstrukturierung der Big Four: Deloitte, KPMG, PwC und EY führen könnte.

Die Akademiker reichten sogenannte Fallstudien ein, die angeblich unzulässige Prüfpraktiken dieser Firmen offenlegten. Diese Fallstudien waren jedoch von Google Bard erstellt und wiesen mehrere gravierende Ungenauigkeiten auf. So wurde KPMG fälschlicherweise in den Lohnbetrugsskandal von 7-Eleven verwickelt, während Deloitte beschuldigt wurde, von einem Bauunternehmen wegen fehlerhafter Prüfungen verklagt worden zu sein. Weitere Fehler beinhalteten Anschuldigungen gegen Deloitte wegen der Manipulation von Konten im Zusammenhang mit der Café-Kette Patisserie Valerie.

Nach Einwänden der Big Four zu diesen Vorwürfen drückten die Wissenschaftler ihr Bedauern aus und führten das Missgeschick auf den Einsatz von Künstlicher Intelligenz zurück. Emeritus-Professor James Guthrie brachte ihr Bedauern in einem Schreiben an den australischen Senat zum Ausdruck und erklärte: „Als Buchhaltungsakademiker haben wir eine tiefe Verpflichtung, das öffentliche Interesse zu wahren und Verantwortung sowie Transparenz in unserem Sektor sicherzustellen. Aus diesem Grund entschuldigen wir uns aufrichtig und bedauern dies zutiefst. Ich habe erkannt, dass KI Ergebnisse produzieren kann, die zwar autoritativ klingen, aber falsch, unvollständig oder voreingenommen sein können.“

Darüber hinaus betonte Senator Richard Colbeck, der eine separate Untersuchung der Beratungsbranche leitet, die Schwere der Situation. Er bemerkte, dass dieser Vorfall das potenzielle Chaos verdeutlicht, das entstehen kann, wenn grundlegende Fakten eklatant falsch sind.

Diese Episode erinnert an einen kürzlichen Fall in New York, bei dem ein Anwalt ChatGPT nutzte, um sich fiktive Rechtsfälle zu recherchieren, die er anschließend vor Gericht einreichte. Aufgrund dieses Fehlverhaltens sahen sich er und sein Partner mit einer Geldstrafe von 5.000 Dollar konfrontiert, was eine offizielle Entschuldigung nach sich zog.

Die Verbreitung von Künstlicher Intelligenz in verschiedenen Berufsbereichen wirft wichtige Fragen zur Zuverlässigkeit und Verantwortung der durch solche Technologien generierten Informationen auf. Da sich KI weiterentwickelt und in unterschiedliche Bereiche integriert, ist es entscheidend, dass Fachleute ihre Ergebnisse mit discernment und Sorgfalt betrachten. Das Bewusstsein für diese Themen wird unerlässlich sein, während sich die Branchen an die Realitäten der KI und deren Auswirkungen auf die Integrität ihrer Arbeit anpassen.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles