Facebook utiliza IA para prevenir suicidios
 
Hace (76) meses
 · 
Compartir:

Uno de los males que aqueja tanto a los gobiernos como a las sociedades es el tema del suicidio, con los jóvenes como el sector más propenso en todo el mundo. La Organización Mundial de la Salud (OMS) considera el suicidio como un problema grave de salud pública mundial, pues cada año, alrededor de 800 mil personas se quitan la vida.

 

De acuerdo con el Instituto Nacional de Estadística y Geografía (INEGI), tan solo en México durante el 2015, se registraron 6 mil 285 suicidios, lo cual representa una tasa de 5.2 fallecidos por cada 100 mil habitantes. Hoy en día, uno de los lugares donde los jóvenes optan por expresar sus problemas y sentimientos es a través de redes sociales como Facebook y Twitter. Durante los últimos años, quienes deciden suicidarse, dejan una nota en las plataformas sociales a manera de despedida.

 

 

Por ello, la empresa de Mark Zuckerberg decidió invertir en un método para detectar a los usuarios, quienes tengan tendencias suicidas por medio de Inteligencia Artificial (IA). La forma en la cual funcionará es por medio de un escaneo de todas las publicaciones en busca de pensamientos suicidas y cuando sea conveniente, enviará recursos de salud mental al usuario en riesgo o para sus amigos o contactos de emergencia. Gracias al uso de IA, Facebook puede reducir el tiempo de espera para el envío de apoyo.

 

Con ayuda de Inteligencia Artificial, Facebook planea incluso, contactar a amigos de la persona en problemas si es necesario para evitar suicidios

 

Inicialmente la empresa realizó pruebas en usuarios de Estados Unidos, pero ahora planea evaluar los contenidos en todo el mundo, con excepción de la Unión Europea, donde la Regulación General de Protección de Datos mantiene una reglamentación sobre el uso de esta tecnología. Con esto también se podrían priorizar a los usuarios con más riesgos o urgentes, para así ser abordados por los moderadores más rápido. Por otro lado, Facebook también busca capacitar a más moderadores sobre la prevención del suicidio para atender casos las 24 horas junto con organizaciones como Save.org, National Suicide Prevention Lifeline y Forefront.

 

Al respecto, el vicepresidente de Gestión de Productos, Guy Rosen, comenta que esto se trata de “reducir los minutos en cada paso del proceso, especialmente en Facebook Live”. Sin embargo, las críticas comenzaron a llegar, pues algunos afirman que el uso de esta tecnología podría utilizarse para otros fines. Se le cuestionó a Rosen sobre cómo Facebook evitará la disidencia política o los delitos menores en torno a esto, sin embargo, solo remarcó el hecho de ayudar con inteligencia artificial.

 

Facebook entrenó a la IA para encontrar patrones en las palabras e imágenes utilizadas en las publicaciones, las cuales se habían reportado anteriormente de forma manual para el riesgo de suicidio. Preguntas como “¿estás bien?” y “¿necesitas ayuda?” se mostrarán a los usuarios en riesgo. Zuckerberg asegura que muchos suicidios pudieron haberse prevenido si alguien se hubiera dado cuenta de lo sucedido en ese momento.

Compartir:
Etiquetas:
Relacionados
title
Hace 42 minutos
title
Hace 1 hora
title
Hace 1 hora
Se dice
/seDiceGift.png
Especiales Criterio
/transformacion.jpeg
Suscribete
/suscribete.jpg

© Copyright 2023, Derechos reservados | Grupo Criterio | Política de privacidad