Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Discover
Submit
  • Welcome to the AIID
  • Discover Incidents
  • Spatial View
  • Table View
  • List view
  • Entities
  • Taxonomies
  • Submit Incident Reports
  • Submission Leaderboard
  • Blog
  • AI News Digest
  • Risk Checklists
  • Random Incident
  • Sign Up
Collapse
Discover
Submit
  • Welcome to the AIID
  • Discover Incidents
  • Spatial View
  • Table View
  • List view
  • Entities
  • Taxonomies
  • Submit Incident Reports
  • Submission Leaderboard
  • Blog
  • AI News Digest
  • Risk Checklists
  • Random Incident
  • Sign Up
Collapse

Welcome to the
AI Incident Database

Loading...
Мрежи от фалшиви профили предизборно разпространяват постове на ИТН в социалните мрежи

Incident 1466: Network of Allegedly Fake Facebook Profiles with Purportedly AI-Generated Images Amplified Posts by Bulgaria's 'There Is Such a People' (ITN) Party

“Мрежи от фалшиви профили предизборно разпространяват постове на ИТН в социалните мрежи”Latest Incident Report
factcheck.bg2026-04-24

Встъпването в длъжност на служебния кабинет с премиер Андрей Гюров предизвика засилена активност от страна на представителите на „Има такъв народ" (ИТН) срещу членовете му.  Докато зам.-председателят на партията Тошко Йорданов и зам.-председателят на парламентарната група Станислав Балабанов атакуват новите министри предимно от парламентарната трибуна и пред медиите, депутатът Павела Митова, както и лидерът на партията Станислав Трифонов, използват основно Фейсбук, за да отправят посланията си. 

Публикациите и на двамата събират стотици споделяния и хиляди реакции, но едва малка част от тях са автентични.

Анализ на Factcheck.bg установи, че мрежа от около 120 фалшиви профила във Фейсбук координирано разпространява публикациите на Митова и Трифонов. Профилите са създадени по сходен модел и активността им съвпада, що се отнася до споделянето на съдържание от ИТН.

На 20 февруари например Митова публикува в профила си пост, в който твърди, че служебният министър на земеделието и храните Иван Христанов е определил специална стая „на корупцията" и там е дал достъп на свои съмишленици от партия „Единение" до „всички документи на МЗХ за пет години назад", какъвто достъп те по закон не би трябвало да имат. Христанов е сред служебните министри, които са обект на най-ожесточени атаки от страна на „Има такъв народ".

До 10 март публикацията на Павела Митова е споделена 336 пъти, като проверката на Factcheck.bg показва, че около 120 от тези споделяния идват от неавтентични профили. Тези профили са създадени по сходен модел и всеки от тях е споделил въпросните твърдения два или повече пъти.

1 от 3

По същия начин публикация на Трифонов от 4 март, в която настоява за оставката на Христанов и критикува неявяването му в парламента, за да бъде изслушан, е споделена 379 пъти, като близо половината от тези споделяния идват от неавтентични профили.

Друга публикация на Трифонов от 11 март с критики към „Продължаваме промяната -- Демократична България" пък е споделена над 15 пъти от един и същ профил. 

1 от 2

Made with Flourish - Create a chart

  • Профилните им снимки, както и другите снимки, които публикуват, са генерирани с изкуствен интелект. Това се потвърждава от проверка чрез инструмента AIorNOT. 

  • Имат много малък брой или никакви приятели във Фейсбук.

  • Като местоживеене са посочени различни градове в България, а в описанието е добавен текст, свързан с отбелязаната в профила професия. Повечето профили са създадени в края на 2025 г. или началото на 2026 г.;

Профилите са свързани с имейл адреси, които използват шаблона  „цифра@hotmail.com".

Активността им представлява основно препубликуване на съдържание от други профили или страници, свързани с „Има такъв народ" и нейни членове. Първите постове обикновено са на тема, свързана с града, където се представя че живее фалшивият профил. Всяка следваща публикация след това е свързана единствено с ИТН.

Характерно за тази група фалшиви профили е, че те само споделят публикации, но нямат друга активност като свое лично съдържание, харесвания или коментари.

При забрана за политическа реклама в социалните мрежи основният начин за достигане до потребителите е органичното разпространение, което зависи най-вече от реакциите, които даден пост събере. Повечето реакции, коментари и споделяния водят до по-голямо разпространение и помогат на алгоритъма на Фейсбук да разпознава публикациите като силно ангажиращо съдържание.  

Точно такъв е случаят с поста на Павела Митова от 20 февруари. Той е споделен от фалшивия профил Magdalena Kostova два пъти на 22 февруари:

1 от 2

Този профил е създаден на 26 декември 2025 г. Макар и неавтентичен, акаунтът приема предложения за приятелство, което означава, че дейността му не е изцяло автоматизирана, а зад него стои реален човек, който го управлява. 

Първите публикации от името на Magdalena Kostova са свързани със Сандански, новата година и приемането на еврото, както и няколко генерирани с изкуствен интелект снимки, които са уж нейни. Това са опити да се създаде впечатление за автентично онлайн поведение на реален потребител. От 7 януари до 30 март фалшивият профил споделя следното съдържание:

  • 14 публикации на Павела Митова;
  • 50 на „Има такъв народ";
  • 12 публикации от профила на Слави Трифонов;
  • 1 публикация на профил с името Diana Damianova, която критикува служебния кабинет на Гюров и нарича ИТН „пазител на семейните ценности" 
  • 1 публикация от профила на депутата от ИТН Александър Рашев.

Друг профил -- този на Никола Савов от Перник, е създаден на 10 януари 2026 г. След  първата си публикация за времето той също започва да споделя съдържание, свързано само с ИТН.

Използваната профилна снимка също не е на реален човек, а е генерирана с изкуствен интелект. Друга прилика с профила на Magdalena Kostova e, че Никола Савов също е споделил два пъти публикацията на Павела Митова от 20 февруари. По два пъти са споделени и други публикации на ИТН в социалната мрежа.

1 от 8

Сред фалшивите профили, ангажирани с разпространение на постовете на ИТН, има и такива с описание на руски език. Това вероятно е знак, че текстът в тези описания е генериран с изкуствен интелект.

1 от 2

Така чрез мрежа от неавтентични профили с изфабрикувани снимки и без реални лични постове публикацията на Павела Митова от 20 февруари получава най-малко 120 допълнителни споделяния. Големият брой на реакциите и споделянията я поставя в категорията на силно ангажиращо съдържание във Фейсбук, води до приоритетното ѝ позициониране и увеличава видимостта ѝ.

Същата мрежа от профили усилва разпространението и на постове от други акаунти и страници, свързани с ИТН, по време на кампанията за предсрочните парламентарни избори. Публикацията на Станислав Трифонов например, в която той критикува служебния министър на земеделието Иван Христанов, събира над 3000 харесвания. Споделянията са 379, от които над 100 са от фалшиви акаунти. Повечето от фалшивите профили от мрежата я споделят по два пъти. Профилът Magdalena Kostova също е сред тях. 

1 от 2

„Ще има такъв народ"

В началото на март във Фейсбук се появява нова мрежа от частично или напълно анонимни профили, които използват в името си фразата „Ще Има такъв народ"  --  е слоганът на ИТНв настоящата предизборна кампания. Целта на тази мрежа също е усилване разпространението на съдържание, публикувано от ИТН, така че алгоритмите на Мета да го разпознаят като силно ангажиращо.

1 от 2

Тези около 50 профила се представят за активисти на ИТН, но действителност не са автентични.  Профилните снимки, които използват, са или генерирани с изкуствен интелект, или са откраднати от интернет пространството. В профилите не се наблюдава почти никаква активност до февруари 2026 г., когато изведнъж започват всекидневно да споделят съдържание от различни страници и групи на „Има такъв народ".

Made with Flourish - Create a chart

Проверка с инструмента PimEyes показа, че един от профилите в мрежата --  „Ще Има Такъв Народ (Анелия Йорданова) -- използва за профилно изображение снимка на модела на Victoria's Secret Кели Гейл.

1 от 3

Проверка на Factcheck.bg с инструмента PimEyes

Конкретната снимка се появява в редица сайтове, включително в такива със съдържание за възрастни.

Друг профил от мрежата използва снимка на реален човек.

Отново чрез проверка с инструмента за лицево разпознаване PimEyes става ясно, че снимката принадлежи на реален човек с името Иван Томанович, който е научен сътрудник в катедра „Термално инженерство и енергетика", Институт по ядрени науки „ВИНЧА" към Белградския университет. Екипът на Factcheck.bg се опита да се свърже с него, но до редакционното приключване на текста не получи отговор на отправеното запитване.

И още неавтентично поведение

От началото на предизборната кампания под публикациите на лидера на „Има такъв народ" Слави Трифонов се наблюдава друг вид необичайна активност. Публикацията му от 12 март, в която критикува кмета на София Васил Терзиев, е събрала близо 5700 реакции. От тях около 2000 са харесвания, над 600 -- смеещи се емотикони и около 3000 сърчица. 

Голяма част от профилите, които реагират със сърчице под публикацията, имат чуждестранни имена -- например италиански. Същата необичайна активност с над 900 реакции -- сърца, се наблюдава под публикациите на Трифонов от 28.02, 1.03, 4.03, 5.03, 6.03 и 11.03.

1 от 3

По този начин изглеждат купените реакции в социалните мрежи -- услуга, която се предлага нелегално в интернет от различни посредници, често базирани в азиатски държави. Срещу неголямо заплащане те осигуряват реакции под дадена публикация, като използват предимно кухи профили, създадени специално за целта. 

Според политиките на Meta, компанията собственик на Facebook, тези действия попадат в обхвата на така нареченото „координирано неавтентично поведение". То подлежи на санкции от страна на платформата, тъй като цели да измами Мeta и потребителите на нейните социални мрежи или да избегне санкциите, които се полагат за нарушаване на общностните правила.

Тези ангажименти от страна на Facebook и останалите големи социални мрежи произтичат от Акта за цифровите услуги на ЕС. Документът изрично задължава големите платформи да предприемат мерки срещу използването на услугите им за координирана манипулация на обществото чрез фалшиви профили или ботове, които могат да се използват за бързо и масово разпространение на дезинформация или незаконно съдържание.

Read More
Loading...
Robotaxi Outage in China Leaves Passengers Stranded on Highways

Incident 1460: Baidu Apollo Go Robotaxis Stopped in Traffic During Reported System Failure in Wuhan, Stranding Some Passengers

“Robotaxi Outage in China Leaves Passengers Stranded on Highways”
wired.com2026-04-19

An unknown technical problem caused a number of robotaxis owned by the Chinese tech giant Baidu to freeze on Tuesday in the middle of traffic, trapping some passengers in the vehicles for more than an hour.

In Wuhan, a city in central China where Baidu has deployed hundreds of its Apollo Go self-driving taxis, people on Chinese social media reported witnessing the cars suddenly malfunction and stop operating. Photos and videos shared online show the Baidu cars halted on busy highways, often in the fast lane.

A college student in Wuhan tells WIRED that she was stuck in a Baidu robotaxi with two friends for about 90 minutes on Tuesday. (She asked to be only identified with her last name, He, to protect her privacy.) The student says the car malfunctioned and stopped four or five times during the trip before it eventually parked in front of an intersection in eastern Wuhan. Luckily, it was not a busy road, and the group was not in immediate danger. The screen display in the car asked the passengers to remain in the car with seatbelts on and wait for a company representative to come "in five minutes," according to a photo He shared with WIRED.

He says it took about 30 minutes to reach a Baidu customer representative on the phone. "They kept saying it would be reported to their superior. But they didn't explain what caused [the outage] or let us know how long we needed to wait for the staff to come," He says. But no one ever came, and after another hour of waiting, the three passengers decided to just get out and go home by themselves (the doors weren't locked).

On Chinese social media, other passengers also complained about being unable to reach Baidu's customer support. "I tried every way I could think of to call for help using the options the app showed, but the phone line wouldn't go through, and when I pressed the SOS button it told me it was unavailable. So then what exactly is the SOS for?" wrote one person in a post on RedNote alongside a video showing the button not working. She said she had to force the door to open and get out of the car as traffic halted to a complete stop behind her robotaxi. "Apollo Go, you really owe me an apology," she wrote.

Baidu didn't immediately respond to a request for comment. Local police in Wuhan issued a statement around midnight in China that said the situation was "likely caused by a system malfunction," but the incident is still under investigation. No one was injured, and all passengers have exited the vehicles, the police added. It's unclear how many of Baidu's robotaxis may have been impacted.

One dashcam recording posted to RedNote shows a car passing 16 Apollo Go vehicles parked on the road in the span of 90 minutes. On several occasions, the video shows the driver narrowly avoiding hitting the robotaxis by braking or changing lanes at the last minute.

Others were apparently not as fortunate. In another RedNote post, a man claimed he crashed into one of the malfunctioning Baidu vehicles. The man wrote in the caption that he was driving over 40 mph on a highway when the car in front of him suddenly changed lanes to avoid the stopped robotaxi. He couldn't react fast enough and ended up running into the self-driving car. Photos of the man's orange SUV being towed away show that the car's front-right fender was completely torn off, and other parts appeared to have sustained major damage.

There were at least two other collisions on the same day, according to photos and videos posted on Chinese social media. A RedNote user in Wuhan confirmed to WIRED that she drove past a white minivan that had gotten into a rear-end collision with a parked robotaxi. The back of the Baidu car was badly damaged, but the two people standing beside the scene looked unharmed, she says. She added that she estimates she also saw at least a dozen more parked robotaxies.

Baidu is one of China's leading self-driving firms. The company has launched robotaxi services in over a dozen Chinese cities so far and recently began expanding internationally to places like Seoul, Abu Dhabi, and Dubai. In February, Baidu announced that it completed 20 million rides covering over 300 million kilometers (about 186 million miles).

Wuhan has been among the most aggressive cities in allowing Baidu's fully autonomous vehicles on public roads. It permits them to operate on highways and run trips to the airport.

Read More
Loading...
Optometrist Fights Back After Deepfake Scam

Incident 1455: Purported Deepfake Videos Allegedly Impersonated Optometrist Joseph Allen to Promote Myopia-Reversal Eyedrops on TikTok

“Optometrist Fights Back After Deepfake Scam”
visionmonday.com2026-04-18

Joseph Allen, OD is well known on the conference lecture circuit, on social media, and for his YouTube channel, Dr. Eye Health, where he educates followers about a variety of eye health topics. His notoriety had a downside, though, when he discovered videos across social media that looked and sounded like him, but were spreading false information and selling bogus products. Dr. Allen was the victim of AI Deepfake scamming.

AI-generated deepfake and slop videos are increasingly targeting real-world doctors, impersonating them to create low-effort, algorithm-driven content that can spread dangerous health misinformation. Deepfakes are AI-manipulated or fabricated content that impersonates a real person for the purposes of spreading malicious or false information.

AI slop videos are AI-produced video content at scale that exploits social media's engagement algorithms and floods platforms like YouTube, TikTok, or Instagram, edging out original content creators. Dr. Allen noted that, "In some of these, they're telling you not to see your eye care provider and that our entire profession is a scam."

With legal counsel, Dr. Allen challenged the deepfakes targeting his channel but it took a month to get hold of TikTok where he discovered the fake, then it took another three weeks to prove he was the legitimate 'Dr. Eye Health.' An account was deplatformed, but within two or three hours, the scammers made a new account and reuploaded all the previous content. In Dr. Allen's case, the product being sold in the scam was eyedrops to reverse myopia. The drops were tracked back to a Chinese company selling millions of dollars in product on Amazon. The content of the drops remains in question.

Dr. Allen recommends looking for tell-tale signs for AI-generated videos, keeping in mind that as AI progresses, these signs may become more subtle, or even corrected. Look closely at the video content for odd editing, such as, do the subject's lips match up with the vocals and audio, or do they blink too much or too little? If it's selling a too-good-to-be-true product, then it probably is, and make sure to look and think carefully when it comes to such content.

Does it feel natural or not? Deepfakes still have difficulty portraying natural lighting and can make the subject feel unnatural due to a mismatch in lighting conditions or reflections. More signs are available from MIT researchers including clues from eyes and eyebrows, blinking, and glare on eyeglasses. As AI blurs the lines between reality and fiction, the responsibility falls on individual critical thinking about media content.

Read More
Loading...
Misuse of the name of the Albanian cardiologist and journalist from Albania to sell hypertension drugs

Incident 1452: Purported AI-Generated Impersonations of Albanian Cardiologist Spiro Qirko and Journalist Ilir Topi Were Reportedly Used on Facebook to Promote Hypertension Product in Kosovo

“Misuse of the name of the Albanian cardiologist and journalist from Albania to sell hypertension drugs”
kallxo.com2026-04-18

Misuse of the name of the Albanian cardiologist and journalist from Albania to sell hypertension drugs = heavy and manipulated video. The drug 'Hyper Caps' does not have a Marketing Authorization from the Kosovo Agency for Medical Products and Devices (AKPPM), which makes its marketing illegal in Kosovo.

Article

Facebook Page[ Dr. Spiro Search](https://fit.my-health.blog/M24T3jcX?media_type=video&campaign_id=120245649803330357&adset_id=120245649803350357&ad_id=120245649803340357&placement=Facebook_Mob ile_Feed&a=fy-BRI-bloomfield-B&x=961459690129113&cn=al2294truba&cel1=2294&fbclid=IwdGRzaAQrbrBleHRuA2FlbQEwAGFkaWQBqzLIRp2UVXNydGMGYXBwX2lkDDM1MDY4NTUzMTcyOAABHi27JJ8 ZYZmVh3hPAv_ZnPN9a3GlXpwYultUkUdZFTpoQJ1vw-Vc2tjBGJ0m_aem_eBCvBlVEfeAdsh1Ekfq1SA&utm_medium=paid&utm_source=fb&utm_id=120245649803330357&utm_content=12024564980334035 7. has published a video in which he claims to have discovered a cure for hypertension.

In the video, among other things, it is claimed that this drug is being fought by pharmaceutical companies. 

"As a specialist, people often ask me: "Is it possible to completely cure hypertension?". The answer -- YES. 🩺 I have created a method that within a few days eliminates pressure and load on the veins, without expensive procedures. The secret lies in the proper stimulation of the veins and the cardiovascular system. In the video you will see exactly how my formula works and you will forget about hypertension forever. You will feel the result immediately." - writes in this publication.

While a video has also been published in the form of an interview introducing this medicine.

The interview is claimed to be conducted by journalist Ilir Topi (the interviewer) with doctor Spiro Qirko, who explains how hypertension is cured.

'Hyper Caps' is the product that is claimed to have been discovered by a cardiologist and that it cures hypertension.

Krypometer has also searched the list of medicines that have marketing authorization in Kosovo to see if the same is allowed to be sold and traded in Kosovo.

After searching the website of the Kosovo Agency for Medicinal Products and Devices (AKPPM), it turns out that the product 'Hyper Caps' is not on the list of medicines with Marketing Authorization.

Article 16 of the Law on Medicinal Products and Devices states that "the medicinal product may be placed in the Republic of Kosovo only after receiving Marketing Authorization from the KPAPM".

Krypometer has tested this[ video](https://fit.my-health.blog/M24T3jcX?media_type=video&campaign_id=120245649803330357&adset_id=120245649803350357&ad_id=120245649803340357&placement=Facebook_Mobile_Feed&a=fy-BRI-bloomfield-B&x=961459690129113&cn=al2294truba&cel1=2294&fbclid=IwdGRzaAQrbrBleHRuA2FlbQEwAGFkaWQBqzLIRp2UVXNydGMGYXBwX2lkDDM 1MDY4NTUzMTcyOAABHi27JJ8ZYZmVh3hPAv_ZnPN9a3GlXpwYultUkUdZFTpoQJ1vw-Vc2tjBGJ0m_aem_eBCvBlVEfeAdsh1Ekfq1SA&utm_medium=paid&utm_source=fb&utm_id=120245649803330 357. platform that detects content created with Artificial Intelligence and its results show that the video has a 96.4% probability of being generated with AI, as well as the speech (archive).

Krypometer has contacted journalist Ilir Topi and Albanian cardiologist, Spiro Qirko, who have denied having anything to do with this profile or the content of this video.

"It is generated with AI, fake." - said Topi.

"I feel very insulted for this very ugly fraud that is speculating in the most dirty and unprecedented way with my name and personality. It is extremely criminal." - said Qirko, a cardiologist from Albania.

Qirko said that he has never recommended herbal medicines to treat hypertension.

Hypertension

Cardiologist Qirko said that according to the guidelines of the European Society of Cardiology, nowadays blood pressure is considered normal up to 135/85 mm/Hg.

"Beyond these figures, it is considered high blood pressure and must be treated regularly. Treatment usually consists of using one or a combination of two medications of different classes according to the doctor's selection, following the progress of the patient's blood pressure." - said Qirko.

Read More
Loading...
Is Nirmala Sitharaman Promoting a INR 22,000 Investment for INR 5.5 Lakh Returns? PIB Fact Check Reveals Truth Behind Viral Video

Incident 1454: Purported Deepfake Video Reportedly Portrayed Nirmala Sitharaman Endorsing Investment Scheme

“Is Nirmala Sitharaman Promoting a INR 22,000 Investment for INR 5.5 Lakh Returns? PIB Fact Check Reveals Truth Behind Viral Video”
latestly.com2026-04-18

New Delhi, April 16: The government's fact-checking arm PIB Fact Check on Thursday debunked a viral video that falsely shows Finance Minister Nirmala Sitharaman endorsing a high-return investment scheme, warning citizens against falling for such misinformation. In a post on social media platform X, PIB Fact Check said the video, which claims that an investment of Rs 22,000 could yield returns of Rs 5.5 lakh within a week, is fake and generated using artificial intelligence. "A viral video of Finance Minister Nirmala Sitharaman claims to offer Rs 5,50,000 in a week in lieu of an initial investment amount of Rs 22,000. The video is fake and AI generated," it said. Did Nirmala Sitharaman Promote a High-Return Investment Scheme Online? PIB Fact Check Debunks AI Video.

The agency clarified that neither the Government of India nor the Finance Minister is promoting or endorsing any such scheme, and urged people to remain cautious of misleading content circulating online. "Neither the Government nor the Finance Minister is endorsing any such investment scheme," it added. The fact-checking unit also advised citizens to verify such claims through official government sources before taking any financial decisions. It further appealed to users to report and flag suspicious content to help curb the spread of misinformation.

"Stay vigilant. Verify such claims through official government sources only," PIB Fact Check said. Meanwhile, last month, PIB flagged a fake message circulating on social media that claims State Bank of India's (SBI) YONO app accounts will be blocked if users do not update their Aadhaar details immediately. The purported message instructs recipients to download an APK file titled "SBI KYC AADHAR UPDATE" and install it to avoid disruption of services. "The warning, which appears to be a phishing attempt, is designed to mislead account holders into sharing sensitive banking and personal information," PIB said last month.

TruLY Score 5 -- Trustworthy | On a Trust Scale of 0-5 this article has scored 5 on LatestLY. It is verified through official sources (Official X Account of PIB Fact Check). The information is thoroughly cross-checked and confirmed. You can confidently share this article with your friends and family, knowing it is trustworthy and reliable.

Read More
Quick Add New Report URL

Submitted links are added to a review queue to be resolved to a new or existing incident record. Incidents submitted with full details are processed before URLs not possessing the full details.
About the Database

The AI Incident Database is dedicated to indexing the collective history of harms or near harms realized in the real world by the deployment of artificial intelligence systems. Like similar databases in aviation and computer security, the AI Incident Database aims to learn from experience so we can prevent or mitigate bad outcomes.

You are invited to submit incident reports, whereupon submissions will be indexed and made discoverable to the world. Artificial intelligence will only be a benefit to people and society if we collectively record and learn from its failings. (Learn More)

post-image
AI Incident Roundup – November and December 2025 and January 2026

By Daniel Atherton

2026-02-02

Le Front de l'Yser (Flandre), Georges Lebacq, 1917 🗄 Trending in the AIID Between the beginning of November 2025 and the end of January 2026...

Read More
The Database in Print

Read about the database at Time Magazine, Vice News, Venture Beat, Wired, Bulletin of the Atomic Scientists , and Newsweek among other outlets.

Arxiv LogoVenture Beat LogoWired LogoVice logoVice logo
Incident Report Submission Leaderboards

These are the persons and entities credited with creating and submitted incident reports. More details are available on the leaderboard page.

New Incidents Contributed
  • 🥇

    Daniel Atherton

    779
  • 🥈

    Anonymous

    157
  • 🥉

    Khoa Lam

    93
Reports added to Existing Incidents
  • 🥇

    Daniel Atherton

    883
  • 🥈

    Anonymous

    243
  • 🥉

    Khoa Lam

    230
Total Report Contributions
  • 🥇

    Daniel Atherton

    3010
  • 🥈

    Anonymous

    934
  • 🥉

    Khoa Lam

    417
The AI Incident Briefing
An envelope with a neural net diagram on its left

Create an account to subscribe to new incident notifications and other updates.

Random Incidents
Loading...
Predictive Policing Biases of PredPol
Predictive Policing Biases of PredPol
Loading...
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Loading...
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
Loading...
Child Sexual Abuse Material Taints Image Generators
Child Sexual Abuse Material Taints Image Generators
Loading...
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
The Responsible AI Collaborative

The AI Incident Database is a project of the Responsible AI Collaborative, an organization chartered to advance the AI Incident Database. The governance of the Collaborative is architected around the participation in its impact programming. For more details, we invite you to read the founding report and learn more on our board and contributors.

View the Responsible AI Collaborative's Form 990 and tax-exempt application. We kindly request your financial support with a donation.

Organization Founding Sponsor
Database Founding Sponsor
Sponsors and Grants
In-Kind Sponsors

Research

  • Defining an “AI Incident”
  • Defining an “AI Incident Response”
  • Database Roadmap
  • Related Work
  • Download Complete Database

Project and Community

  • About
  • Contact and Follow
  • Apps and Summaries
  • Editor’s Guide

Incidents

  • All Incidents in List Form
  • Flagged Incidents
  • Submission Queue
  • Classifications View
  • Taxonomies

2026 - AI Incident Database

  • Terms of use
  • Privacy Policy
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 01af10e