Description: Researchers at Cornell reportedly found that OpenAI's Whisper, a speech-to-text system, can hallucinate violent language and fabricated details, especially with long pauses in speech, such as from those with speech impairments. Analyzing 13,000 clips, they determined 1% contained harmful hallucinations. These errors pose risks in hiring, legal trials, and medical documentation. The study suggests improving model training to reduce these hallucinations for diverse speaking patterns.
Entidades
Ver todas las entidadesPresunto: un sistema de IA desarrollado por OpenAI e implementado por OpenAI , Whisper , Companies using Whisper y Organizations integrating Whisper into customer service systems, perjudicó a Individuals with speech impairments , Users whose speech is misinterpreted by Whisper , Professionals relying on accurate transcriptions y General public.
Estadísticas de incidentes
ID
732
Cantidad de informes
1
Fecha del Incidente
2024-02-12
Editores
Informes del Incidente
Cronología de Informes
news.cornell.edu · 2024
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
translated-es-Speak a little too haltingly and with long pauses, and a speech-to-text transcriber might put harmful, violent words in your mouth, Cornell researchers have discovered.
OpenAI's Whisper -- an artificial intelligence-powered s…
Variantes
Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents