Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1818

Incidentes Asociados

Incidente 1282 Reportes
Tesla Sedan on Autopilot Reportedly Drove Over Dividing Curb in Washington, Resulting in Minor Vehicle Damage

Loading...
La transcripción de la ética de la inteligencia artificial del bestseller #transhumancode
carloscreusmoreira.medium.com · 2019

En el verano de 2017, Eric Horvitz activó la función de piloto automático de su sedán Tesla. No tener que preocuparse por conducir el automóvil por una carretera con curvas en Redmond, Washington, permitió a Horvitz concentrarse mejor en la llamada que estaba tomando con una organización sin fines de lucro que había cofundado. ¿El tema de la llamada? La ética y la gobernanza de la IA.

Fue entonces cuando la IA de Tesla lo defraudó.

Ambos neumáticos del lado del conductor chocaron contra un bordillo amarillo elevado en medio de la carretera, destrozando los neumáticos al instante y obligando a Horvitz a recuperar rápidamente el control del vehículo. Debido a que el automóvil no se había centrado correctamente, Horvitz se encontró parado en la acera, viendo cómo un camión remolcaba su Tesla.

Pero lo que más le preocupaba era el hecho de que las empresas que utilizan IA necesitaban considerar nuevos desafíos éticos y de seguridad. Y Horvitz no está solo. Han surgido nuevos grupos de expertos, grupos industriales, institutos de investigación y organizaciones filantrópicas, todos preocupados por establecer límites éticos en torno a la IA.

El sector de la automoción está plagado de acertijos éticos. Considere estos (y tenga en cuenta que son solo la punta del iceberg):

Al programar cómo debe responder un automóvil a un choque inminente, ¿qué intereses deben tenerse en cuenta más: el conductor del automóvil, el conductor del automóvil que se aproxima o las compañías de seguros de cualquiera? ¿Debería programarse la IA de un automóvil para minimizar la pérdida de vidas, incluso si eso significa sacrificar a su propio conductor para salvar varias vidas en otro vehículo? ¿Cómo entra en juego la preservación de la propiedad privada o pública a la hora de programar un coche para evitar un accidente?

Como puede ver, las situaciones éticas que plantea la IA siguen y siguen. Y esto ni siquiera comienza a considerar el uso de IA en algoritmos de anuncios en línea, el etiquetado de fotos en línea y el campo relativamente nuevo de drones privados.

Horvitz se dio cuenta bastante rápido después de llamar a Tesla para informar el accidente que la compañía estaba mucho más preocupada por los problemas de responsabilidad que por resolver los dilemas éticos profundos en torno al uso de la IA.

"Lo entiendo", dice Horvitz, cuyo amor por su Tesla no disminuyó. "Si tuviera un sarpullido desagradable o problemas para respirar después de tomar medicamentos, habría un informe para la FDA... Sentí que ese tipo de cosas deberían o podrían haberse implementado".

Este es el tipo de preguntas que todos tendremos que responder: ¿cuáles serán los parámetros éticos en el uso corporativo de la inteligencia artificial y quién establecerá los estándares a medida que avanzamos en este nuevo mundo?

Por supuesto, estos son solo ejemplos de preguntas de IA en casos en los que se usa legalmente — las grandes amenazas que se avecinan en la seguridad cibernética serán el uso de algoritmos de inteligencia artificial para fines ilegales. De la misma manera que la IA se puede usar para buenos propósitos, también se puede usar para el delito cibernético para analizar el comportamiento de ciertas personas, anticipar su próximo movimiento y atacarlos cuando menos sospechan del ataque.

Las generaciones actuales y futuras ven la ciberseguridad de formas completamente nuevas, entendiendo que nacieron en un mundo complejo y tienden a tener instintos mejor desarrollados que las generaciones anteriores.

Muestran menos riesgo de verse comprometidos por los métodos tradicionales. Sin embargo, incluso los Millennials han demostrado que ellos mismos y sus datos personales están demasiado expuestos, como lo han demostrado los últimos eventos de empresas de redes sociales que abusan de sus datos.

Hace veinte años, la pregunta con la que luchábamos era si la interconexión total en un mundo en el que todo está en línea valdría la pérdida de privacidad resultante.

Desde entonces, respondimos esa pregunta con un rotundo sí, conectando cualquier cosa a Internet, incluidos nosotros mismos a través de nuestros teléfonos y otros dispositivos inteligentes, introduciendo una nueva pregunta general:

En un mundo donde todo está conectado, ¿cómo podemos ayudar al individuo a mantener su privacidad, seguridad y autonomía?

Como han demostrado las prácticas recientes de las redes sociales, las personas y las organizaciones venderán datos, incluso datos privados, cuando las grandes ganancias estén en juego. Tenemos que volver a una mayor preocupación por la privacidad, utilizando la identificación de las personas como una forma de protegerlas contra posibles abusos o pérdidas de datos personales. Debemos establecer una cobertura ética que evite que la IA explote ilegalmente a quienes interactúan con ella.

Este esfuerzo plantea las principales preguntas que tenemos que responder:

  1. ¿Cómo se creará una cobertura de seguridad ética para evitar que la IA nos explote?
  2. ¿Quién debe ser responsable de este esfuerzo?
  3. ¿Es este un mandato del gobierno?
  4. ¿O se deja el esfuerzo al sector privado?

Es probable que las respuestas estén en algún punto intermedio. O mejor dicho, se encuentran en una colaboración entre los sectores público, privado y gubernamental. ¿Estamos dispuestos a comenzar esa colaboración ahora y continuarla hasta que tengamos una solución satisfactoria?

Estas son las preguntas que deben responderse si la seguridad cibernética de hoy nos va a brindar una sensación legítima de seguridad y comodidad, permitiéndonos prosperar en nuestro mundo en línea e hiperconectado, y proteger esos valores y derechos humanos básicos sin los cuales no podemos vivir # extracto de código transhumano

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd