Tecnología

La Ética en IA: La búsqueda de un universo antagonista a Terminator

El conocimiento del Bien y del Mal

Comencemos preguntándonos ¿Qué es la Ética?. Ética es el estudio del comportamiento humano y su relación con las nociones del bien y del mal, los preceptos morales, el deber, la felicidad y el bienestar común.

Ahora, deberíamos preguntarnos si la IA (inteligencia Artificial) puede entender este significado tan profundamente unido al espíritu de Humanidad. El concepto de el bien y del mal son valores tan susceptibles que se ven influidos por las costumbres, la historia y hasta por el clima de cada región del planeta. No se rigen por la misma regla ética las personas del medio oriente respecto a las personas europeas, africanas o americanas. Entonces, ¿Cómo unificar algo tan heterogéneo como lo es el concepto de Ética como para poder enseñarle a un ordenador?

Esa es la gran pregunta…

En 2015, una serie de líderes en el sector tecnológico, incluido el difunto Stephen Hawking, Elon Musk y Steve Wozniak, redactaron una carta abierta pidiendo llevar a cabo una mayor investigación de los impactos sociales de la IA. El escrito bajo el nombre, Research Priorities for Robust and Beneficial Artificial Intelligence: An Open Letter, explica las ventajas de la IA, pero insta a actuar con cautela con el fin de evitar los potenciales peligros de esta tecnología revolucionaria.

En 2017, la fundación Biocat, con sede en España organizó un debate con científicos y expertos en IA. De esta reunión surgió un documento: “Declaración de Barcelona para un desarrollo y uso adecuados de la IA en Europa”.

En dicho documento se establecen 6 puntos básicos para el desarrollo y uso de la IA:

  • Principio de Prudencia, ser conscientes de la inmensa cantidad de obstáculos científicos y técnicos pendientes de resolver, además del problema del sentido común.
  • Principio de Fiabilidad, por el cual las IA deben ser sometidos a pruebas que determinen su fiabilidad y seguridad.
  • Rendición de Cuentas, cuando las personas son afectadas por un sistema automático de Toma de Decisiones, deberían poder exigir una explicación claramente entendible y tener la oportunidad de poder rebatirlas con argumentos razonables.
  • Criterio de Responsabilidad, Debe quedar claro si la interacción se hace con una persona o con un sistema de IA, y, en el segundo caso, debe poderse localizar e identificar a los responsables de él.
  • Autonomía limitada de las IA, deben establecerse reglas claras que limiten el comportamiento de las IA y estas reglas debe ser introducidas por los programadores de dichos sistemas.
  • Por último, debe quedar muy claro el papel que la Humanidad desempeña en el planeta, somos los humanos quienes debemos disernir respecto al bien y el mal en las tómas de dicisiones.

Las empresas tecnológicas, los gobiernos y las universidades deben trabajar en conjunto para construir un marco único en el campo Ético de la IA. Solo garantizando que la IA sea transparente, libre de cualquier sesgo, que esté basada en datos de calidad y diseñada para un uso positivo, podremos evitar un apocalipsis provocado por la IA y desbloquear todo el potencial de esta tecnología transformadora.

Si desea ahondar mas respecto a la “Declaración de Barcelona”, puede leer y firmar la declaración en  www.iiia.csic.es/barcelonadeclaration