La désinformation alimentée par l'IA bouleverse les Big Four en conseil.

Un groupe d’académiciens a présenté des excuses après avoir, sans le vouloir, utilisé Google Bard pour générer de fausses affirmations concernant les quatre grands cabinets de conseil dans une soumission officielle au Parlement australien. Cet incident a émergé lors d’un examen parlementaire de la conduite professionnelle au sein de l’industrie du conseil, qui pourrait mener à la restructuration des grandes entreprises : Deloitte, KPMG, PwC et EY.

Le groupe académique a soumis ce qu'il prétendait être des études de cas révélant des pratiques d'audit inappropriées de ces firmes. Cependant, ces études de cas avaient été fabriquées par Google Bard, contenant plusieurs inexactitudes graves. Par exemple, une accusation a faussement impliqué KPMG dans le scandale de vol de salaires lié à 7-Eleven, tandis qu'une autre prétendait que Deloitte faisait face à une poursuite d'une entreprise de construction pour des pratiques d'audit défectueuses. D'autres erreurs incluaient des allégations contre Deloitte pour falsification de comptes concernant la chaîne de cafés Patisserie Valerie.

Suite aux objections des quatre grands concernant ces allégations, les chercheurs ont exprimé leurs regrets et ont attribué le malentendu à l'utilisation de l'intelligence artificielle. Le professeur émérite James Guthrie a articulé leur contrition dans une lettre adressée au Sénat australien, déclarant : « En tant qu'académiques en comptabilité, nous avons un engagement profond envers l'intérêt public et l'assurance de l’imputabilité et de la transparence dans notre secteur. Pour cette raison, nous nous excusons sincèrement et exprimons notre profond regret. J'ai réalisé que l'IA peut produire des résultats qui, bien que sonnant autoritaires, peuvent être incorrects, incomplets ou biaisés. »

De plus, le sénateur Richard Colbeck, qui supervise une enquête distincte sur l'industrie du conseil, a souligné la gravité de la situation. Il a fait remarquer que cet incident met en lumière le chaos potentiel qui peut survenir lorsque des faits fondamentaux sont manifestement faux.

Cet épisode fait écho à un récent cas à New York où un avocat a utilisé ChatGPT pour rechercher des affaires juridiques fictives qu'il a ensuite soumises au tribunal. À la suite de cette faute, lui et son partenaire ont été condamnés à une amende de 5 000 dollars, ce qui a entraîné une excuse officielle.

La prolifération de l'intelligence artificielle dans divers domaines professionnels soulève des questions importantes sur la fiabilité et la responsabilité des informations générées par ces technologies. Alors que l'IA continue d'évoluer et de s'intégrer dans différents secteurs, il est crucial pour les professionnels d'aborder ses résultats avec discernement et diligence. Sensibiliser à ces enjeux sera essentiel alors que les industries s'adaptent aux réalités de l'IA et à son impact sur l'intégrité de leur travail.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles