顧客サポートのAIエージェントが重大なエラーを起こす頻度が増加しており、Chevyやエア・カナダ、ニューヨーク市といった有名ブランドでも問題が発生しています。このような状況は、人工知能システムの信頼性向上に対する需要を高めています。
もし、生成AIのアプリケーションや戦略の開発に関わる企業の意思決定者で、最新のチャットボット技術や責任のある運用基準についてついていくのが難しいと感じているなら、6月5日にニューヨークで開催される特別なAIイベントへの参加を検討してください。このイベントでは「AI監査」に焦点を当てており、企業セクターの技術リーダー向けに設計されています。
このネットワーキングイベントは、著名メディアによって主催され、AIエコシステムの有力な3名からのインサイトが紹介され、AI監査のベストプラクティスについて議論します。まず、VerizonのAIおよびデータ担当VPであるマイケル・ラージ氏が、徹底したAI監査と従業員トレーニングの実施により、顧客対応における責任ある生成AIの使用の枠組みをどのように構築したかを共有します。モデレーターは、FirstMarkの著名な投資家であり、年次データおよびAIランドスケープの発行者であるマット・ターク氏です。
また、Patronus AIの共同創設者でCTOのレベッカ・キアン氏は、安全性の脆弱性を特定し対処するための最新のAI監査戦略と技術についてお話しします。キアン氏は、MetaでAI評価イニシアチブを主導してきた経験を持っています。
私は、著名メディアのエグゼクティブエディターであるカール・フランゼン氏と共に議論を進行します。UiPathがスポンサーになっており、そのSVPであるジャスティン・グリーンバーガー氏が、進化する監査とコンプライアンスガイドラインが組織内のAIプロトコルにどのように影響を与えているかについての見解を提供します。このイベントは、効果的な生成AIの実装を目指す企業リーダーたちとの対話とネットワーキングを促進するAIインパクトツアーSiriーズの一環です。
では、AI監査とは具体的に何であり、AIガバナンスとはどのように異なりますか?AIのガバナンスルールを設定した後、生成AIアプリケーションの監査を行い、ルールの遵守を確保することが重要です。この必要性は、急速な技術進展の中でますます高まっています。OpenAIやGoogleといった主要なLLMプロバイダーは、視覚、聴覚、発話、感情表現が可能なChatGPTやGeminiのようなモデルを最近導入しました。Meta(Llama 3)、Anthropic(Claude)、Inflection(共感に基づくAI)のような他の企業の革新と相まって、正確さとプライバシーの監査要件を維持するのがますます難しくなっています。
Patronus AIのような新興企業が登場し、AIの対話の中で敏感な個人情報(PII)を特定するためのベンチマーク、データセット、診断ツールを提供しています。さらに、従来の技術である情報検索を補う生成(RAG)やシステムプロンプトは、根本的なLLMのトレーニングデータセットに起因する問題によってエラーを防ぐことができない場合が多く、これが透明性の欠如を浮き彫りにしています。この現実は、堅牢な監査実践の必要性を強調しています。
デジタル分野における倫理的なリーダーシップにコミットする企業AIの意思決定者にとって、これは重要な機会を逃さないでください。今すぐ申し込んでAIインパクトツアーへの参加を確保し、AIの革新とガバナンスの最前線に立ちましょう。