エンジニア兼研究者のアレックス・ビルゼリアン氏は最近、人気の文字起こしツールである Otter AI に関連する不安な AI 事故に遭遇しました。ベンチャー キャピタル企業との Zoom 会議の後、ビルゼリアン氏は会議の文字起こしだけでなく、退席後に行われた何時間ものプライベートな会話も受け取りました。投資家は Otter AI がまだ文字起こしを行っていることを知らずに、機密のビジネス事項について話し合いを続けており、これらの詳細が誤ってビルゼリアン氏に電子メールで送信されました。
ビルゼリアン氏はこの事件を ソーシャル メディアで共有し、企業が機密情報を保護できなかったことに不快感を示しました。投資家は謝罪しましたが、信頼関係が損なわれたため、ビルゼリアン氏は潜在的な取引から撤退しました。この事件は、AI ツールの限界と潜在的なプライバシーの落とし穴を十分に理解せずに、専門的な環境で AI ツールを使用することのリスクを強調しています。
この事件の主な問題は、会議終了後も Otter AI が文字起こしを停止しなかったことです。プライバシー擁護者のナオミ・ブロックウェル氏がワシントンポスト紙に説明したように、人々はAIがどれほど侵入的になり得るかを過小評価しがちです。OtterのようなAI文字起こしツールを通じてプライベートな会話が不注意に漏洩すると、機密性に重大なリスクが生じ、訴訟やビジネス関係の損傷につながる可能性があります。
Otter AIは、プライバシーへの取り組みを明言し、提起された懸念を認めることでこの事件に対応しました。しかし、この状況は、AI技術がユーザーの責任ある管理能力よりも速く進歩しているという、より広範な問題を反映しています。ノースウェスタン大学のハティム・ラーマン教授は、重要な状況で使用する前にこの技術を理解することの重要性を強調しました。彼は、AIツールを使用するすべての人が技術に精通しているわけではないことを強調し、このような事件は適切な予防措置を講じないと問題が発生する可能性があることを浮き彫りにしました。
結局のところ、これはAI駆動型ツールを使用する企業や個人にとって、これらのツールをいつどのように使用するかを制御できるようにするための警鐘となります。ここでの教訓は明らかです。AI 文字起こしサービスを使用している場合は、会議の終了時に音声の聞き取りを停止するようにしてください。そうしないと、意図していたよりもはるかに多くの情報を受け取ってしまう可能性があります。