Experto defiende en la sede de la UNIA de Huelva que la IA aún debe demostrar que tiene una inteligencia equiparable a la del ser humano

El profesor ha afirmado que  "no existe una definición universalmente aceptada" sobre la IA

La Rábida inicia su curso 'El recurso especial en materia de contratación' y cuenta con ponencias de expertos

El profesor José Miguel Bello en una ponencia sobre Inteligencia Artificial en la sede de la UNIA en Santa María de La Rábida.
El profesor José Miguel Bello en una ponencia sobre Inteligencia Artificial en la sede de la UNIA en Santa María de La Rábida.

Huelva/La inteligencia artificial (IA) todavía tiene que demostrar que tiene una inteligencia que "se equipare" a la del ser humano. Esta es la premisa de José Miguel Bello Villarino, profesor de la  Universidad de Sidney en Australia, en su ponencia "La inteligencia artificial en el contexto jurídico: concepto, aplicaciones y dilemas" en la sede de Santa María de La Rábida en la Universidad Internacional de Andalucía (UNIA).

Durante la ponencia, que se enmarca dentro del ciclo de conferencias 'Inteligencia Artificial, Justicia Digital y Derechos Humanos', Bello ha afirmado que  "no existe una definición universalmente aceptada" sobre la IA. Ha expuesto que la inteligencia artificial "no tiene un marco regulatorio establecido en la Unión Europea (UE) como Estado Unidos (EEUU) o China", incidiendo en que los expertos recomiendan usar de momento una "ética dura" y una "ética blanda" para controlar su marco de actuación.

Bello ha mencionado que el existen diversas definiciones sobre la inteligencia artificial. Espone que el Nacional Institute of Standards and Technology "un sistema basado en máquinas que puede, para un conjunto dado de objetivos definidos por el ser humano, hacer predicciones, recomendaciones o tomar decisiones que influyen en entornos reales o virtuales". Además, ha añadido que los sistemas de IA "utilizan entradas basadas en máquinas y humanos para percibir entornos reales y virtuales, abstraer dichas percepciones en modelos mediante análisis de forma automatizada y utilizar la inferencia de modelos".

El profesor han citado así diferentes definiciones como la de la Comisión Electrónica Internacional (IEC); que la concibe como "un sistema de ingeniería que genera resultados tales como contenidos, previsiones, recomendaciones o decisiones para un conjunto dado de objetivos definidos por el ser humano".

La noción de sistema de IA en el presente reglamento, ha explicado el ponente, debe definirse "claramente" y debe ajustarse "estrechamente" a la labor de las organizaciones internacionales que trabajan en IA para "garantizar la seguridad jurídica, facilitar la convergencia internacional y obtener una amplia aceptación", al igual que "proporcionar flexibilidad para adaptarse a la rápida evolución tecnológica" y "no abarcar los sistemas que se basan en reglas definidas únicamente por personas físicas para ejecutar operaciones autónomas".

Durante la presentación también ha habido cabida para exponer y desgranar el Plan de Recuperación, Transformación y Resiliencia del Gobierno de España que ofrece "una amplia gama" de usos de la IA, desde "compras online, transporte o asistentes virtuales hasta salud, ciberseguridad o automoción". "Desde un punto de vista técnico, puede hacer procesamientos de audio, imagen y vídeo o procesar lenguaje", ha subrayado.

Problemas y soluciones que aporta la inteligencia artificial

El profesor Bello ha detallado que los profesionales mencionan que la IA es una tecnología disruptiva "desconocida, con falta de autorregulación, poca participación del sector privado y escasez de un sistema legal adecuado, entre otros".

"Estos sistemas gozan de autonomía, además de que las responsabilidades en la cadena de producción se distribuyen gracias a la IA y las empresas fomentan la monocultura de la IA", ha expuesto el profesor como principales problemas, aunque ha destacado sustancialmente que "el sistema puede seguir aprendiendo del mundo exterior, generar cosas nuevas y, por tanto, no podemos analizar el riesgo total que supone".

Como soluciones, Bello ha explicado que los profesionales citan a la ética como "remedio" para controlar la IA, que llevará a crear, dar forma o cambiar las leyes sobre la IA, denominada ética dura, o a prescribir lo que se debe y no debe hacerse más allá de la normativa existente, conocida como ética blanda. "Se está usando la ética para algo que no fue concebida, además de que carece de mecanismos para imponer el cumplimiento de estos valores y principios", ha detallado.

Por último, el ponente ha expuesto que la UE ha publicado un "paquete legislativo" para regular la IA con medidas complementarias para sistemas de riesgo limitado o alto riesgo y para prohibir "ir contra valores fundamentales de la UE y estados miembros", encontrándose estas leyes en aplicación. "En 2023, EE.UU estableció una orden donde las empresas que creen IA deben registrar los riesgos existenciales o de seguridad que ha sido muy útil para que no sobrevivan los sistemas de IA más peligrosos, algo que debe servir de ejemplo para el devenir de la UE", ha concluido. 

stats