概要: Otter.aiのOtterPilotやZoomのAI CompanionといったAI搭載の会議アシスタントが、機密性の高いプライベートな会話を意図した相手以外に共有したという報告があります。会議の議事録を自動的に記録・配信するように設定されたこれらのAIツールは、参加者が会議を退席した後も機密性の高い議論を送信したとされ、その結果、機密情報の意図しない漏洩、プライバシー侵害、そして潜在的な評判の低下につながりました。
Editor Notes: Reconstructing the timeline of events and more details: In late September 2024, Alex Bilzerian received a transcript from Otter.ai after a Zoom meeting with venture capital investors. The transcript included sensitive post-meeting discussions that occurred after he had logged off. Following the incident, the investors apologized to Bilzerian for the unintentional leak of private information, but the damage was already done, leading to the cancellation of the deal. On October 2, 2024, The Washington Post published a report on the broader implications of AI-powered workplace tools sharing sensitive information without sufficient user control or discretion, using Bilzerian's account as a specific case to discuss these wider vulnerabilities and likely ongoing incidents among other users of the technology.
Alleged: Otter.ai と Zoom developed an AI system deployed by Alex Bilzerian , Unnamed venture capital investors , Employees , Employers , Companies と Organizations, which harmed Alex Bilzerian , Unnamed venture capital investors , Employees , Employers , Companies と Organizations.
インシデントのステータス
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
2.1. Compromise of privacy by obtaining, leaking or correctly inferring sensitive information
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- Privacy & Security
Entity
Which, if any, entity is presented as the main cause of the risk
AI
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Unintentional
インシデントレポート
レポートタイムライン
Loading...
企業のアシスタントは長い間、会社のゴシップや秘密の番人だった。今では人工知能が彼らの仕事の一部を担っているが、彼らのような慎重さは持っていない。
研究者でエンジニアのアレックス・ビルゼリアン氏は先週、ベンチャーキャピタルの投資家たちとのズーム会議の後、AI会議アシスタントを備えた文字起こしサービスであるOtter.aiから自動メールを受け取ったとXで語った。メールには会議の文字起こしが含まれていた。ビルゼリアン氏がログオフした後、投資家たちが会社の戦略的な失敗や不正な指標につ…
Loading...

AIは機密情報を信頼できるのか?
これが、1,400万人以上のユーザーを抱える人気のAI文字起こしサービスOtterが先週、AI研究者のアレックス・ビルゼリアン氏に、あるベンチャーキャピタル企業と会った後にZoom会議の自動文字起こしを送信した際に問題となった問題だ。問題は、ビルゼリアン氏がその文字起こしの全文を見ることは想定されておらず、公式電話会議後に聞くはずのないベンチャーキャピタル間の会話も文字起こしされていたことだ。
ビルゼリアン氏は、500万回以上閲覧されているX…
Loading...