La Regulación Ética de la Inteligencia Artificial: Una Necesidad Según Expertos Europeos

Compartir en tus redes

La inteligencia artificial (IA) ha experimentado un crecimiento exponencial en los últimos años, generando dudas e inquietudes sobre su uso y regulación. Varios expertos en este campo han recomendado que la IA debe ser regulada por razones éticas y responsables. Esta recomendación ha sido defendida en un foro organizado por la Universidad Internacional de La Rioja (UNIR), en el que participaron expertos de renombre en el campo de la IA.

uan Ignacio Rouyet, profesor del Máster Universitario en Gemelos Digitales de UNIR, sostuvo que los usos de la IA han generado una creciente preocupación social y política. La preocupación se centra en garantizar que la IA no sobrepase ciertos límites éticos. Las implicaciones de la IA en áreas como el reconocimiento facial, la vigilancia continua, los sistemas de chat, el arte y la predicción del comportamiento social han planteado cuestiones éticas y morales que deben ser abordadas de manera adecuada.

Además, Rouyet argumentó que la regulación de la IA es posible y necesaria en nuestra sociedad. Para lograr una regulación que respete la ética, se requiere la colaboración de gobiernos, empresas, expertos y la sociedad en su conjunto. La regulación de la IA es un paso crucial para construir un futuro tecnológico responsable y equitativo.

Por su parte, Juan Pablo Peñarrubia, vicepresidente del Consejo General de Colegios Oficiales de Ingeniería en Informática, indicó que es común tender a una regulación legal normativa en cualquier actividad económica o social, y lo mismo debe suceder con la IA. Se espera que en 2024 se apruebe la primera ley europea en relación a la IA, y durante este período, la Comisión Europea llevará a cabo numerosas reuniones para trabajar en este tema.

Peñarrubia explicó que tanto Estados Unidos como Europa están preparándose para crear leyes que fomenten los avances económicos, al tiempo que se analizan los riesgos de la IA y se protegen los derechos fundamentales. El objetivo es garantizar la seguridad y la transparencia en el uso de estas tecnologías.

Rouyet destacó que Europa tiene una visión diferente a la de Estados Unidos en cuanto a la regulación de la IA. La confiabilidad de la IA en Europa se basa en tres directrices: la legalidad, es decir, que cumpla con las leyes y reglamentos vigentes; la ética, que garantice el cumplimiento de los principios y valores; y la robustez, que evite daños involuntarios y tenga en cuenta las consecuencias desde un punto de vista técnico y social.

Peñarrubia enfatizó la importanciade una definición clara de la IA, ya que puede tener regulaciones y responsabilidades distintas. Según él, es esencial concretar la definición de IA a nivel jurídico para que se pueda aplicar a cualquier dispositivo, evitando así un posible vacío legal en su aplicación, que no sólo afectaría a la informática tradicional, sino también a la informática algorítmica.

Los expertos sostienen que la regulación de la IA es una necesidad inminente que requiere un enfoque ético y responsable. Esta tarea requiere la colaboración de todas las partes interesadas, incluyendo gobiernos, empresas, expertos y la sociedad en general, para garantizar un futuro tecnológico seguro, transparente y equitativo.


Compartir en tus redes