Los avances en Inteligencia Artificial (IA) tienen enormes implicaciones en diversas esferas de la sociedad. Uno de los desafíos se relaciona con la privacidad de los datos.

La Inteligencia Artificial (IA) promete una mayor eficiencia, innovación y mejoras sustanciales en diversas industrias. Pero el uso de esta tecnología también conlleva desafíos, especialmente cuando se trata de la privacidad y la confianza entre las organizaciones y sus stakeholders.

No faltan ejemplos de cómo se puede aplicar la IA para mejorar las previsiones, mejorar los productos y servicios, reducir los costes y optimizar las operaciones en diversas áreas.

Sin embargo, como con cualquier tecnología emergente, existen riesgos. El uso generalizado y no regulado de esta tecnología plantea preocupaciones sobre su impacto en los derechos humanos y la privacidad personal, por lo que, para cosechar los beneficios de esta tecnología innovadora, es crucial construir una relación de confianza con el mercado y las diversas partes interesadas, disipando las preocupaciones sobre cómo se utilizarán los datos.

Estas y otros insights se presentan en el estudio Privacy in a New World of AI, elaborado por KPMG. La encuesta reveló que, si bien el 85% de las personas cree en los beneficios de la IA, el 61% todavía desconfía de estos sistemas. Los principales temores incluyen decisiones algorítmicas y la impresión de que los beneficios de la IA no superan los riesgos involucrados.

La encuesta mostró que el tema de la privacidad es central en estas preocupaciones. La IA, especialmente la IA generativa (GenAI), que está impulsada por algoritmos basados en modelos de aprendizaje de idiomas (LLM) a gran escala, presenta considerables desafíos de privacidad. 

Si bien el 85% de las personas cree en los beneficios de la IA, el 61% todavía desconfía de estos sistemas.

Estos desafíos incluyen un diseño defectuoso, sesgos algorítmicos, vulnerabilidades de seguridad y, especialmente, la posibilidad de discriminación. Además, la naturaleza compleja e impredecible de los algoritmos de IA plantea preocupaciones sobre la transparencia y la protección de los datos personales.

El objetivo es consolidar las garantías de que los sistemas de IA respetan los derechos humanos y proporcionan equidad y transparencia. En otras palabras: es fundamental explicar el funcionamiento y las decisiones de un sistema de IA de forma clara y comprensible.

La integración de la privacidad desde el diseño es una estrategia eficaz para abordar estas preocupaciones sobre la privacidad. Esto implica evaluar los riesgos de privacidad en cada etapa del ciclo de vida de la IA, desde el desarrollo hasta la implementación, mientras se garantiza el cumplimiento de las regulaciones existentes.

El uso responsable de la Inteligencia Artificial (IA) es un reto complejo en los aspectos empresariales, regulatorios y técnicos.

Al seguir un enfoque estructurado que incluye la comprensión del entorno regulatorio, la evaluación de riesgos, las auditorías, la transparencia y la incorporación de la privacidad desde el principio, las organizaciones pueden crear sistemas de IA confiables y responsables.

En resumen, el uso responsable de la Inteligencia Artificial (IA) es un reto complejo en los aspectos empresariales, regulatorios y técnicos. Es fundamental contar con mecanismos que garanticen la privacidad de los datos y así generar confianza, basados en la ética, el buen gobierno y la ciberseguridad.

Accedé al estudio Privacidad en un nuevo mundo de IA para ver el contenido completo.







Privacidad en un nuevo mundo de IA



Descargar PDF ⤓ (1.44 MB)



 

 

Contactos

Contáctenos

© 2024 KPMG, KPMG, una sociedad argentina y firma miembro de la red de firmas miembro independientes de KPMG afiliadas a KPMG International Ltd, una entidad privada Inglesa limitada por garantía que no presta servicios a clientes. Derechos reservados.

Para más detalles sobre la estructura de la organización global de KPMG, por favor visite https://kpmg.com/governance.