Normas e inteligencia artificial: ¿un asunto de ficción?

Ricardo Mikio Obuchi Ugarte
0
642
isaac asimov murla, IA
Foto: Mural de Isaac Asimov en Santiago de Chile. Museo de Arte Callejero /Flickr, CC BY-NC-SA

Existen muchas reglas en las distintas religiones y en los diferentes estados: los diez mandamientos, las cuatro nobles verdades, la Constitución Política del Estado, etc. todas van en muchas formas unidas al temor, a ese miedo de vivir una especie de “anarquía de la carne” o del Estado, todo esto conlleva el castigo de un ente superior o alguna penalización jurídica.

En muchos casos, estas normas son una suerte de advertencia que nos guía por el camino del centro y lo digo poniéndome un poco budista, también nos aleja del ciclo infinito de reencarnaciones, en otros casos nos aseguran el cielo y alejan de las llamas del abismo o afirman una convivencia tranquila o en defecto: la cárcel o hasta la pena de muerte. Lo cierto es que es muy común ver como nadie hace caso de dichas normas.

En esta época vemos algo nuevo en esta selva de leyes religiosas y civiles (por usar un término) y esa novedad es la irrupción de la IA. Si asumimos estas tecnologías como un “Otro constitutivo” (Otro, considerado siempre como algo diferente, alude a otro individuo más que a uno mismo) la pregunta ha formularnos es: ¿Qué mandamientos le toca? ¿qué mandamientos nos toca como usuarios? ¿Somos conscientes de sus usos?

Esta cuestión ya ha sido pensada de alguna manera por Isaac Asimov, las leyes de la robótica surgen de su imaginación en la década del 40, básicamente resumida en:

1) Un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño.

2) Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entran en conflicto con la ley primera.

3) Un robot debe proteger su propia existencia en la medida en que esta protección no entra en conflicto con la primera o con la segunda ley.

0) o ley 0. Un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daños.

¿Se ha pensado en esto?

Mientras leía el artículo de la revista Dat0s: “Frases destacadas del 2023 (1ra. parte). Me encontré con la siguiente frase: “Un descubrimiento podría amenazar a la humanidad”. Frase escrita con una gravedad muy común últimamente, en especial cuando nos referimos a la IA; la frase escrita con cierto dramatismo temeroso como hemos aprendido a leer estas cosas desde la película: “Terminator”, entonces me llevo a preguntar: ¿Quién puso la frase leyó a Asimov? ¿Quién creo la IA leyó Asimov? Si bien estas leyes nacen en la ficción: ¿no nos enseñan acaso a prever contingencias?

Ante una serie de alarmas en diversos medios y de diversas fuentes me quedan muchas dudas: ¿existe esta serie de leyes implementada en la IA.? ¿nadie pensó en una serie de normas constitutivas para la IA? ¿Nadie pensó en leyes para quienes crean estas tecnologías? ¿Nadie pensó en una serie de reglamentos para los usuarios de estos programas? ¿Hasta qué punto podemos dotar de leyes a algo que se presenta como un ´Otro´? ¿Hasta qué punto es positivo dejar que evolucione a su modo? ¿Hasta qué punto alientan la dejadez en los usuarios estas herramientas? Pregunto porque no sé, ejercito unas pocas preguntas a causa de la falta de espacio para las que tengo y tú: ¿qué preguntas te nacen en torno a la IA y a las normas que se deben cuidar?