La Inteligencia Artificial (IA) está diseñada para imitar el aprendizaje e inteligencia humana. En esta línea, los sistemas de IA combinan grandes conjuntos de datos con algoritmos específicos que ayudan a que el sistema pueda aprender de manera interactiva a identificar patrones que entreguen soluciones a diversos problemas.
Bajo este contexto, en los últimos meses se ha hecho mundialmente conocida la plataforma ChatGPT, un sistema de chat basado en el modelo de lenguaje de IA GPT-3 desarrollado por la compañía OpenIA. ChatGPT ha destacado por su capacidad para mantener conversaciones fluidas en diferentes materias. Así, el algoritmo está diseñado para entregar respuestas coherentes a las preguntas que los usuarios le van realizando. La solución tecnológica ha revolucionado el mercado llamando la atención de diversos actores.
Es por lo anterior, que el pasado 31 de marzo el Garante Italiano para la Protección de Datos Personales, autoridad administrativa que vela por la protección de datos de dicho país, resolvió poner un alto a esta plataforma. La decisión se tomó principalmente porque la autoridad italiana consideró que los datos se recogen sin una base de licitud apropiada que justifique el entrenamiento de los algoritmos. Adicionalmente, se expuso la falta de mecanismos que verifiquen la edad de los usuarios.
Así, el Garante informó que la determinación fue tomada luego de que el chat sufriera una filtración de datos ocurrida a finales del mes de marzo de este año, en la cual habría sido vulnerada la protección a la información sobre conversaciones y pagos realizados por los suscriptores del servicio. OpenAI tiene un periodo de 20 días para implementar las medidas impuestas, o arriesga una multa de 20 millones de euros o del 4% de su ganancia mundial anual. Sanciones y limitaciones que son esperables en un contexto legislativo riguroso respecto de la protección de datos personales.
Entendemos que el desarrollo y avance de la IA es inevitable, sin embargo, consideramos que jurídicamente deben ponderarse los riesgos que implica el uso de este tipo de tecnologías y mitigar los riesgos, no sólo desde una perspectiva reactiva, sino que más bien preventiva.
La legislación siempre va detrás de los cambios sociales por lo que no es una sorpresa que debamos anticipar y gestionar aquellos problemas que puedan surgir de un uso masivo de nuevas herramientas que funcionan mediante el uso de datos y de información que -en muchas ocasiones – es personal.
¿Cómo podría afectar a nuestra privacidad la Inteligencia Artificial?
Bajo este contexto, en los últimos meses se ha hecho mundialmente conocida la plataforma ChatGPT, un sistema de chat basado en el modelo de lenguaje de IA GPT-3 desarrollado por la compañía OpenIA. ChatGPT ha destacado por su capacidad para mantener conversaciones fluidas en diferentes materias. Así, el algoritmo está diseñado para entregar respuestas coherentes a las preguntas que los usuarios le van realizando. La solución tecnológica ha revolucionado el mercado llamando la atención de diversos actores.
Es por lo anterior, que el pasado 31 de marzo el Garante Italiano para la Protección de Datos Personales, autoridad administrativa que vela por la protección de datos de dicho país, resolvió poner un alto a esta plataforma. La decisión se tomó principalmente porque la autoridad italiana consideró que los datos se recogen sin una base de licitud apropiada que justifique el entrenamiento de los algoritmos. Adicionalmente, se expuso la falta de mecanismos que verifiquen la edad de los usuarios.
Así, el Garante informó que la determinación fue tomada luego de que el chat sufriera una filtración de datos ocurrida a finales del mes de marzo de este año, en la cual habría sido vulnerada la protección a la información sobre conversaciones y pagos realizados por los suscriptores del servicio. OpenAI tiene un periodo de 20 días para implementar las medidas impuestas, o arriesga una multa de 20 millones de euros o del 4% de su ganancia mundial anual. Sanciones y limitaciones que son esperables en un contexto legislativo riguroso respecto de la protección de datos personales.
Entendemos que el desarrollo y avance de la IA es inevitable, sin embargo, consideramos que jurídicamente deben ponderarse los riesgos que implica el uso de este tipo de tecnologías y mitigar los riesgos, no sólo desde una perspectiva reactiva, sino que más bien preventiva.
La legislación siempre va detrás de los cambios sociales por lo que no es una sorpresa que debamos anticipar y gestionar aquellos problemas que puedan surgir de un uso masivo de nuevas herramientas que funcionan mediante el uso de datos y de información que -en muchas ocasiones – es personal.
Fuente: Espacio Mutuo.
Archivos
Categorías
Noticias Recientes