¿Qué riegos implica la IA aplicada a la seguridad?

¿Por qué la utilización de inteligencia artificial en seguridad puede afectar derechos?¿Qué es la UIAAS, la Unidad de Inteligencia Artificial Aplicada a Seguridad, que creo el ministerio de Seguridad de Argentina? ¿Por qué ha generado críticas de ONG´s dedicadas al derecho y al contexto digital? ¿Cuáles son los puntos más polémicos y riesgosos? ¿Qué señala sobre vigilancia en redes sociales, vigilancia predictiva, reconocimiento facial, robots o drones? ¿Por qué la ley de IA de la Unión Europea prohibió la vigilancia predictiva por riegos inaceptables? ¿Estas propuestas pueden poner en riesgo derechos constitucionales como el principio de inocencia, el derecho a la privacidad o la libertad de expresión?

En una reciente entrevista con Canal E, el periodista especializado en economía e inteligencia artificial, Sebastián Di Domenica, abordó los riesgos de utilizar inteligencia artificial (IA) en la seguridad y vigilancia por parte del Estado, a raíz de la resolución del ministerio de Seguridad de crear una unidad de IA aplicada a la seguridad.

Según Di Domenica, la propuesta ha generado controversia entre muchos motivos por proponer vigilancia en redes sociales, reconocimiento facial y vigilancia predictiva, acciones que pueden poner en riesgo derechos constitucionales.

La vigilancia predictiva, que consiste en predecir posibles delitos a partir de una gran cantidad de datos sobre una persona, ha sido prohibida en la Unión Europea por considerarse de riesgo inaceptable debido a posibles errores y violaciones a derechos fundamentales como la privacidad y la presunción de inocencia.

El periodista a su vez destacó que los algoritmos de IA pueden tener sesgos y cometer errores, lo que ya ha causado problemas en otros países donde se ha implementado la IA para acciones de seguridad y vigilancia. Estos errores no solo pueden llevar a falsas acusaciones, sino que también pueden vulnerar derechos fundamentales.

Di Domenica enfatizó la importancia de la transparencia y el control en el uso de tecnologías sensibles como la IA. Señaló que sin una adecuada supervisión, el uso de IA en la seguridad puede resultar en la violación de derechos constitucionales como el principio de inocencia, el derecho a la privacidad, la protección de datos y la libertad de expresión.

IA con transparencia y protección de derechos

Además, subrayó que cualquier implementación de estas tecnologías debe buscar un equilibrio entre la seguridad pública y la preservación de los derechos fundamentales. La falta de claridad sobre quién manejará los datos sensibles y cómo se garantizará la transparencia en el uso de la IA son aspectos que requieren una atención cuidadosa.

Di Domenica también mencionó que la vigilancia con drones plantea dudas sobre la invasión a la privacidad, destacando la necesidad de regulaciones claras y transparencia en su uso para evitar abusos. Aunque reconoció el valor positivo del uso de robots para desactivar bombas, advirtió sobre los posibles usos invasivos de otras tecnologías de vigilancia.

En conclusión, Sebastián Di Domenica llamó a una precaución extrema y a la implementación gradual de proyectos relacionados con la IA en la seguridad, asegurando siempre que se respeten los derechos individuales y se mantenga la transparencia en todas las fases del proceso.

Mirá el video completo de la charla entre Sebastián Di Domenica y Liliana Zacarías de Canal E

Compartir esta publicación

Relacionados

Subscribe

Anuncios