Verizon、生成AIを活用した顧客サポートの向上に取り組む
Verizonは、1億人以上の携帯電話顧客に対する顧客サポートと体験を向上させるため、生成AIアプリケーションを活用しています。同社はまた、リスクを軽減するために、責任あるAIチームの拡充にも取り組んでいます。
AIの誤使用への対策
Verizonのネットワークエネーブルメント部門の副社長、マイケル・ラージは、この取り組みの一環として実施されているいくつかの対策について説明しました。これには、データサイエンティストがAIモデルを中央チームに登録しセキュリティレビューを受けることや、Verizonのアプリケーションに使用される大規模言語モデル(LLM)の厳重なチェックを行い、バイアスを減らし、有害な言語を防ぐことが含まれます。
AI監査の課題
ラージはニューヨーク市で開催されたメディアAIインパクトイベントで、生成AIアプリケーションの監査に関する課題について語りました。LLMは予測不可能なことが多く、AI監査の分野はまだ黎明期にあるため、企業は特に規制当局から具体的なガイドラインが出ていない中で迅速な対応が求められています。最近、シボレーやエアカナダ、GoogleなどのAIからの顧客サポートでの高プロフィールなエラーが報告されており、AIシステムの信頼性を高める必要性が高まっています。
企業としての取り組み
多くの企業は現在、生成AIの使用に関するルール策定というAIガバナンスの第一歩に取り組んでいます。次のステップは、これらの方針に準拠していることを確認するための監査ですが、必要なリソースを持つ企業は少ないのが現状です。最近のアクセンチュアの報告によれば、96%の組織がAIに関する何らかの規制を支持していますが、責任あるAIの実践を完全に実装しているのはわずか2%に過ぎません。
AIによるエージェントの支援
Verizonは、前線の従業員をインテリジェントな会話アシスタントで装備し、顧客とのやり取りをより良く管理できることを目指しています。これにより、エージェントは膨大な情報の中から個別の顧客情報を瞬時に引き出し、80%の反復的な業務を担当することが可能になります。これにより、エージェントは人間の介入が必要な20%の問題に焦点を当て、パーソナライズされた提案を行えるようになります。
さらに、Verizonは、ネットワークとウェブサイト上の顧客体験を向上させるために生成AIと深層学習技術を活用しており、プロダクトやサービスの改善にも努めています。ラージは、同社が膨大なユーザーベースの中で顧客の離脱を予測するモデルを開発したことを述べました。
安全のための中央集権的AIガバナンス
VerizonはAIガバナンスに多額の投資を行い、モデルのドリフトやバイアスの追跡に注力しています。この取り組みの結果、「AIとデータ」という名前の組織にすべてのガバナンス機能を統合した「責任あるAI」ユニットが設立されました。ラージはこのユニットがAIの安全性に不可欠であり、CISOのオフィスや調達責任者と密接に協力していることを強調しました。今年の初め、Verizonはノースイースタン大学と連携して責任あるAIのロードマップを発表しました。
Verizonは、AIモデルを効果的に管理するためにデータセットを開発者やエンジニアが直接モデルと相互作用できるようにし、承認されたツールの使用を確保しています。
AIガバナンスの新たな潮流
UiPathのグリーンバーガー氏によれば、多くの先進的な企業がVerizonのような中央集権的なAIチームを設立しており、「AIガバナンス」ユニットの創出が広がっています。第三者のLLM供給者との協業は、各プロバイダーが異なる能力を持つ複数のモデルを提供する中で、企業戦略の見直しを促しています。
生成AIアプリケーションの予測不能な特性を考えると、監査プロセスの法制化には独自の課題があります。パトロナスAIのチアン氏は、安全性、バイアス、誤った情報に関連する失敗の可能性が、特に運輸や医療などの重要な分野で業界特有の規制を必要とすることを指摘しました。
AI監査における透明性は重要な課題であり、従来のAIは生成AIの複雑さと比較して理解しやすいとされています。グリーンバーガー氏によれば、現在、バイアスや責任あるAIに焦点を当てたパイロットプロジェクトを完了した企業は約5%に過ぎません。
AI分野の急速な進化に伴い、Verizonの責任あるAIへの取り組みは業界のベンチマークとしての一例となり、これらの技術を導入する際のより良いガバナンス、透明性、倫理基準の必要性を浮き彫りにしています。