La autosuficiencia de las computadoras ha sido uno de los temas favoritos de la ciencia ficción por muchos años ¿Cómo olvidar las leyes de la robótica que regían el universo de Isaac Asimov? Al día de hoy parece que cada vez estamos más cerca de un escenario en el que tengamos que preocuparnos por que las computadoras no nos conquisten.

Recientemente investigadores del prestigioso Massachusetts Institute of Technology (MIT) en conjunto con el fabricante de microprocesadores, Intel, han mostrado un gran avance en la automatización de procesos de programación, han logrado crear un programa que puede escribir código sin intervención humana.
Los miembros de este equipo llamaron a su algoritmo: Machine Inferred Code Similarity , que en español podría traducirse como “Similitud de código inferida por computadora”. Este procedimiento es capaz de escribir código basado en otros programas similares, además de poder detectar errores y mejorar líneas de programación preexistentes.
El objetivo de Intel con estas investigaciones es: “democratizar la creación de software…cuando esté completamente desarrollada, la programación por máquinas permitirá que cualquiera pueda crear un software expresando su intención en el estilo que le sea más fácil”. De ser posible esto, podríamos crear videojuegos, apps o cualquier programa que necesitemos con solo pensarlo.

Al día de hoy, la programación es una de las habilidades más demandadas en el mercado laboral, y parece muy difícil adentrarse en este mundo. Sin embargo, de ser posible la idea de computadoras que programan ¿Estaríamos ante una nueva revolución de la informática? ¿Podrían las máquinas ser tan autosuficientes que se volvieran un tipo de mente superior a la de los humanos?
La Inteligencia Artificial ha sido un sueño desde los inicios de la computación. Por ejemplo el famoso test de turing que consiste en una entrevista a ciegas en el que el participante tiene que averiguar cuál de sus interlocutores es una computadora y cuál es un humano “real”.

La idea de que las inteligencias artificiales puedan llegar a tomar autoconciencia y debido a su ilimitada capacidad de cómputo superen rápidamente a los humanos es una idea que ha sido tomada en serio por más de una persona.
Para algunos especialistas este escenario se llamaría “singularidad tecnológica”, consistiría en la hipótesis de que si las computadores fueran capaces de automejorarse, esto daría el paso a un efecto fuera de control en el que las computadores crearían generaciones sucesivas de mejores máquinas, quedando fuera del control humano.

Nick Bostron, filósofo y director del Instituto del Futuro de la Humanidad de la universidad de Oxford, ve a este tipo de super inteligencias como una posibilidad que amenaza a los humanos, sin embargo, también cree que no estamos totalmente desprotegidos ante esta amenaza.
Para Bostron la humanidad podría extinguirse si las super inteligencias computacionales considerasen que los humanos son un obstáculo para el desarrollo óptimo de la actividad en el planeta. Este pensador ha incitado a los distintos sectores de la tecnología a crear acuerdos para el monitoreo de los desarrollos en inteligencia artificial y para su uso ético.
Con los avances cada vez más acelerados de la tecnología, la vigilancia de datos por las mega empresas tecnológicas y la dependencia que tenemos a las computadoras ¿Te parece que la rebelión de las máquinas ante sus creadores es un escenario poco probable? En este punto ya nada sorprende.
Fuentes:
Deja una respuesta