Los gobiernos quieren regular la Inteligencia Artificial por sus posibles riesgos
La Comisión Europea considera que cada uno de los software que sean lanzados al mercado deberían pasar por una exhaustiva evaluación previa para minimizar sus posibles riesgos.
La Comisión Europea está considerando la calificación de las inteligencias artificiales según el nivel de riesgo potencial que suponen para la sociedad. Con el uso generalizado de las inteligencias artificiales para crear texto, imágenes, video, audio e incluso música, una de las necesidades que deben considerarse en el futuro inmediato son las iniciativas de regulación. Hasta el momento, solo las compañías que han desarrollado estos programas se han encargado de limitar el tipo de uso que se le puede dar a sus productos. Sin embargo, hace falta que organizaciones gubernamentales especifiquen cómo se deben utilizar con responsabilidad estos recursos.
La Comisión Europea ha propuesto normas y medidas para regular la inteligencia artificial con el objetivo de que Europa se convierta en el centro mundial de la IA fiable. La propuesta de la Comisión señala que es necesario establecer una “pirámide de riesgos” que ubica los más pequeños en la base y aquellos que son inaceptables en la parte superior. Estos son: Riesgo mínimo (o nulo), riesgo limitado, alto riesgo y riesgo inaceptable. Cada tipo de inteligencia artificial que sea catalogada en alguna de estas secciones de la pirámide tendrán que cumplir requisitos previos antes de ser comercializada o de libre acceso en los países miembros de la Unión Europea para garantizar que son de uso seguro y que no perjudicarán a las personas que accedan a ellas.
Entre las obligaciones que las inteligencias artificiales calificadas con la categoría “Alto Riesgo”, se encuentran el establecimiento de altos niveles de seguridad para los usuarios, supervisión humana para evitar riesgos, ofrecer información clara y adecuada, además de alimentar la base de datos de los sistemas con recursos de alta calidad para evitar casos de discriminación. También se solicitará que se registre la actividad de los usuarios para rastrearlos en caso de que sea necesario.
La piramide del riesgo:
La Comisión Europea ha propuesto una “pirámide de riesgos” para regular la inteligencia artificial (IA). Esta pirámide clasifica los sistemas de IA en cuatro categorías de riesgo: riesgo mínimo (o nulo), riesgo limitado, alto riesgo y riesgo inaceptable.
Riesgo mínimo (o nulo): Esta categoría incluye sistemas de IA que presentan un riesgo mínimo o nulo para la sociedad. Estos sistemas no estarían sujetos a requisitos específicos.
Riesgo limitado: Esta categoría incluye sistemas de IA que presentan un riesgo limitado para la sociedad. Estos sistemas estarían sujetos a requisitos específicos, como la transparencia y la información al usuario.
Alto riesgo: Esta categoría incluye sistemas de IA que presentan un alto riesgo para la sociedad. Estos sistemas estarían sujetos a requisitos más estrictos, como el establecimiento de altos niveles de seguridad para los usuarios, supervisión humana para evitar riesgos, ofrecer información clara y adecuada, además de alimentar la base de datos de los sistemas con recursos de alta calidad para evitar casos de discriminación. También se solicitará que se registre la actividad de los usuarios para rastrearlos en caso de que sea necesario.
Riesgo inaceptable: Esta categoría incluye sistemas de IA que presentan un riesgo inaceptable para la sociedad. Estos sistemas estarían prohibidos en la Unión Europea.
Cada tipo de inteligencia artificial que sea catalogada en alguna de estas secciones de la pirámide tendrán que cumplir requisitos previos antes de ser comercializada o de libre acceso en los países miembros de la Unión Europea para garantizar que son de uso seguro y que no perjudicarán a las personas que accedan a ellas.