Damma Legal advisors

Inteligencia Artificial (IA) y los “Legacy Humans” (Primera Entrega)

Inteligencia Artificial (IA) y los “Legacy Humans” (Primera Entrega) – Jose Delmar

En setiembre de 2016 la BBC (Future) publicó un artículo redactado por Richard Hollingham cuyo título es: “¿Y si los aliens que estamos buscando son Inteligencia Artificial?  En dicho artículo, el autor cita al astrónomo senior de la organización Search for Extraterrestial Intelligence (SETI), Seth Shostak, quien comenta que si en alguna ocasión encontramos una señal de vida inteligente en el universo, no deberíamos esperar que hubiese sido originada por una suerte de alien protoplásmico sentado detrás de un micrófono. Shostak añadía que “[q]uizá la cosa más relevante que estamos haciendo [la Humanidad] es desarrollar a nuestros sucesores. Si nosotros podemos desarrollar una IA en un par de cientos de años desde que inventamos la radio, cualquier civilización alienígena que escuchemos muy probablemente ha superado ya ese punto.”. Sin perjuicio de que quizá la civilización alienígena que desarrolló esa IA pueda -eventualmente- seguir allí, lo que es claro para Shostak es que una vez que dicha IA es desarrollada, ésta puede ser utilizada para el desarrollo de una segunda generación y así sucesivamente. Por ello, en 50 años es lógico suponer -concluye Shostak- que no sólo existirá una máquina muchísimo más inteligente que todas las anteriores sino claramente más inteligente que todos los humanos sumados.

Sin entrar a la discusión si la IA podría desarrollar una conciencia que la haga preguntarse si sus objetivos y necesidades requieren de la existencia de las criaturas biológicas que la crearon, es bastante obvio que la utilización de una inteligencia muy avanzada podría someternos, desde mucho antes que los 50 años que comenta Shostak, a múltiples riesgos (para los que quieran explorar este tema les recomiendo como una buena lectura inicial el excelente libro de Max Tegmark, Vida 3.0).

A fin de prevenir la materialización de dichos riesgos, personas y organizaciones vienen trabajando, desde hace ya varios años, en el establecimiento de mecanismos de control o límites para la IA y su uso. Los abogados, naturalmente, somos parte de dicho esfuerzo regulatorio y a la fecha hemos contribuido con jurisprudencia a nivel internacional, artículos y notas, así como con el desarrollo de políticas supranacionales e incluso iniciativas locales que, basadas en los principios y aspiraciones que subyacen a nuestra organización social actual, buscan ofrecer un camino seguro para el desarrollo de algoritmos que sean cada vez más complejos y eficaces pero al mismo tiempo seguros para todos (usuarios directos, individuos cuya data es utilizada, etc.).

La pregunta que quiero plantear en esta nota es si toda esta regulación en la que venimos trabajando nos ayudará a alcanzar al objetivo que perseguimos o si estamos mirando el problema desde una perspectiva fundamentalmente errada y convenciéndonos al mismo tiempo que podemos tapar el sol con un dedo.

Si bien existe consenso respecto de que toda la regulación o controles que vienen desarrollándose son relevantes en esta etapa, especialmente cuando -como todos hemos visto- existen muchos casos detectados en los que a través de algoritmos se han proyectado sesgos (muchas veces inconscientes) de sus desarrolladores o se han generado resultados no deseables para la mayoría, me queda la duda de si será posible supervisar la aplicación de todos los controles que imaginamos una vez que tengamos algoritmos con un alto nivel de aprendizaje, un poder computacional superior y el acceso a data ilimitada? En todo caso, ¿cuál será el costo de esta supervisión y el tiempo que nos demandará? Finalmente, ¿realmente creemos que podremos implementar esta regulación antes que los algoritmos que actualmente conocemos hayan dado un salto “evolutivo” significativo?

El título de esta primera entrega no es fortuito. Se conoce como Legacy Technology aquellos sistemas, tecnologías, softwares o hardwares que son obsoletos o que ya no están vigentes. De acuerdo con una nota publicada por TimbukTech (www.timbuktech.com), una encuesta realizada a 1,000 líderes de IT alrededor del mundo reveló que el 97% de ellos piensa que la “Legacy Technology” actualmente todavía en uso los está deteniendo o frenando en sus avances. ¿Podríamos los humanos un día no muy lejano ser vistos de similar manera por la IA? ¿Cuál es el nivel y el alcance de la regulación que deberíamos proponer para no convertirnos en “Legacy Humans”?

(Continuará…)


Para más información y/o ampliación al presente informativo, no dude en contactarse con:

Walther Belaunde                  walther.belaunde@damma.com.pe

Camilo Huaroc                       camilo.huaroc@damma.com.pe

Compartir en

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *