Inteligencia artificial: ¿apocalipsis o salvación?

0
205

Es inevitable: en dos décadas, la inteligencia de las computadoras superará a la del ser humano y abrirá una nueva dimensión para la especie. Mientras tanto, en ese camino, es posible disfrutar de una serie de avances impensados de la tecnología. ¿Qué desafíos trae la inteligencia artificial?

Fotos iStock

Mapas que leen el tránsito y nos indican el camino ideal de un punto a otro en tiempo real. Programas que pueden escuchar y entender lo que dos personas conversan, y sobre esa base elaborar un reporte. Cámaras que reconocen los rostros de las personas e interpretan lo que están haciendo. Vehículos que se manejan de manera autónoma y que no solo se encargan de la seguridad, sino también del buen uso del aparato y de la reducción de la polución sonora y atmosférica. Software de medicina que interpretan los síntomas de un paciente, lo cotejan con cientos de miles de ejemplos similares en todo el mundo y así determinan tratamientos. Robots agrícolas que recorren palmo a palmo cada centímetro de un campo y según lo que ven y lo que miden, inyectan con precisión de un cirujano la dosis justa de herbicidas, fertilizantes y semillas.

A esta altura no podemos seguir mirando para otro lado. La inteligencia del hombre no es la única sobre este planeta. Hay que admitirlo: los humanos ya no estamos solos.

Alan Turing (1912-1954) es considerado por muchos como el “padre de la informática”. Un genio inglés que murió en la plenitud de su carrera. Es el autor de la prueba que lleva su nombre, luego de afirmar en 1950 que “existirá inteligencia artificial cuando no seamos capaces de distinguir entre un ser humano y un programa de computadora en una conversación a ciegas”.

Por sencilla que parezca, la “prueba de Turing” se ha venido usando desde entonces como primer tamiz de abordaje para esto que hoy nos rodea: máquinas que interpretan, razonan y actúan como si fueran humanos. He aquí la inteligencia artificial.

“Durante décadas hemos soñado con construir máquinas inteligentes con cerebros como los nuestros; asistentes robotizados para limpiar nuestras casas, coches que se conducen por sí mismos, microscopios que detecten enfermedades automáticamente”, explica Raúl López Briega, licenciado en Administración de la Universidad de La Matanza y especializado en inteligencia artificial (IA). 

“Pero construir estas máquinas artificialmente inteligentes –agrega– nos obliga a resolver algunos de los problemas computacionales más complejos que hemos tenido. Problemas que nuestros cerebros ya pueden resolver en una fracción de segundo. La forma de atacar y resolver estos problemas es el campo de estudio de la inteligencia artificial”.

Quizás parezca una simplificación semántica, pero definir IA inevitablemente nos lleva a señalarla como una de las ramas de la ciencia de la informática encargada de elaborar modelos capaces de realizar actividades propias de los seres humanos con base en dos de sus características primordiales: el razonamiento y la conducta. Tal vez con algo de ingenuidad, todavía estamos definiendo la IA por su semejanza con la inteligencia humana. Da la sensación de que eso no será así por mucho tiempo.

MÁQUINAS QUE NOS ENTIENDEN 

Matías Rozenfarb estudió Ciencias Informáticas en el Instituto Tecnológico de la ORT y obtuvo un máster en Estrategia Empresarial y Gestión Tecnológica en el ITBA. Además de ello, es fundador y CEO de Keepcon (2008), una de las empresas que viene haciendo punta en IA en la Argentina. 

En su niñez y juventud fue un voraz lector de ciencia ficción, y da la sensación de que esa pasión fue la que le terminaría delineando una carrera en la que hoy es un referente: la inteligencia artificial.

La empresa que dirige, y que emplea a más de 100 personas, ha desarrollado un software para call centers que permite interpretar de manera automatizada una conversación que están manteniendo dos personas. Y lo puede hacer tanto en castellano como en inglés y en portugués. Es un ejemplo de la aplicación de inteligencia artificial. 

Sobra la base de ello, las empresas pueden saber “si se cumplieron los protocolos de atención al cliente, cómo fue la reacción del operador, qué tipo de consultas están llegando de los usuarios, elaborar estadísticas”, describe. 

Este tipo de tecnología está en el centro de los desarrollos de la IA, y es la que se dedica al procesamiento del lenguaje natural, también llamada tecnología cognitiva. Es decir, “que una máquina pueda entender automáticamente el lenguaje de los seres humanos”.

Además de poder hacer esa interpretación –que constituye de algún modo un control de calidad ex post facto–, estos sistemas también permiten determinar cuestiones semánticas, como por ejemplo cuáles son los elementos que hacen que una conversación con el cliente se salga o no del carril. O determinar cuáles son los tipos de argumentos, las formas de lenguaje y de comunicación que luego derivan en más ventas, cuál es el discurso que mejor logra seducir. 

“Si yo tengo el poder de entender las conversaciones históricas y de comprender cada cosa que hace un operador comercial, tengo en mis manos un laboratorio de investigación fabuloso y puedo comenzar a hacerme preguntas y a encontrar rápidamente respuestas”, se entusiasma.

“Existe peligro de una destrucción consciente”.
Alejandro Madruga

Keepcon junto a una decena de empresas o startups argentinas son las que están liderando en la región parte de la ola considerada como la “cuarta revolución industrial”. Es sabida la buena calidad de recursos humanos que egresan de nuestras universidades públicas, “sobre todo en las áreas de las ciencias duras como la informática”, aporta Rozenfarb. A ello se suma la gran adaptabilidad y la resiliencia de nuestros científicos, fruto de las sucesivas crisis y la necesidad de supervivencia. Estos factores, sin dudas, se convierten en fortalezas y oportunidades para que la IA se siga desarrollando.

Quizás en estos puntos es que se basó un reciente informe del
CIPPEC (Centro de Implementación de Políticas Públicas para la Equidad y el Crecimiento) que simuló y analizó el escenario que podría tener en nuestro país el desarrollo de la IA en los próximos diez años. “El ritmo de crecimiento económico podría acelerarse en más de un punto por año durante la próxima década, alcanzando el 4,4 por ciento, si es que la Argentina logra incrementar la tasa de adopción de tecnologías asociadas a la IA”. El potencial, más aún en el contexto actual, parece ser inmenso y conduce a pensar que la adopción y el desarrollo de estas tecnologías podría convertirse en un activo estratégico para nuestro país.

LA TEORÍA DE LA SINGULARIDAD 

Claro que la IA plantea también sus interrogantes. O, mejor dicho, sus amenazas. Decíamos al inicio de este informe que “ya no estamos solos en el planeta”.

La literatura y el cine de ficción han sido abundantes en los escenarios apocalípticos. Películas como Matrix o Terminator han marcado épocas y también han advertido sobre lo que podría suceder si a la IA no se le pone un límite.

Quizás el mayor desafío estará cuando se llegue al punto de quiebre de la llamada “Teoría de la Singularidad”, algo que estaría próximo a ocurrir, probablemente antes de 2040.

¿De qué se trata? Si bien fue formulada a mediados del siglo pasado, los cálculos matemáticos sumados a los avances tecnológicos permitían afirmar que muy pronto, en términos históricos, el ser humano estaría en condiciones de crear inteligencias superiores a la propia. “Cuando esto suceda, la historia humana habrá alcanzado una especie de singularidad, una transición intelectual tan impenetrable como el espacio-tiempo, y el mundo irá mucho más allá de nuestra comprensión”, según lo definía en 1957 el matemático húngaro John von Neumann. 

Esto se puede leer también a la luz de la llamada Ley de Moore. Postulada por Gordon Moore en 1965, esta ley empírica planteó que cada 18 meses los procesadores informáticos lograrían disminuir su tamaño y su costo a la mitad, y duplicarían su capacidad de procesamiento. 

Esa formulación teórica ha venido cumpliéndose en la práctica por más de medio siglo, y de continuar haciéndolo, permitiría pensar en un progreso tecnológico infinito. Pero el punto es que alrededor del año 2040, siguiendo estos cálculos, llegará a existir finalmente una computadora cuya capacidad supere a la de todos los seres humanos habidos y por haber juntos. Y a esto se sumará que tendrá acceso al mayor repositorio de información que jamás haya existido sobre el planeta, generando así, en su conjunto, una potencia inimaginable. 

Otro de los científicos y autores que abordaron la Teoría de la Singularidad fue el matemático norteamericano Vernor Vinge, quien está convencido de que “el progreso será mucho más rápido”, y por eso sitúa la fecha clave mucho más cerca: 2030. Para Vinge, este ciclo de retroalimentación de la inteligencia automejorada “conllevará grandes cantidades de avances tecnológicos dentro de un corto período”, y por eso afirma que la creación de la inteligencia sobrehumana “representa una ruptura en la capacidad de los humanos para modelar su futuro”.

¿Cómo podría manifestarse en algunos años esa singularidad? Hay varias teorías. Algunos consideran que, en algún momento, el desarrollo de los equipos alcanzará la conciencia (“despertarán”) y poseerán una inteligencia sobrehumana. También especulan que las grandes redes de computadoras podrán ser las que algún día “despierten” como una entidad sobrehumana inteligente. Otro de los postulados es que el desarrollo de la singularidad pase por la generación de interfaces hombre/máquina que sean tan íntimas que sus usuarios podrán ser considerados sobrehumanamente inteligentes (el modelo Neo, en Matrix). 

“Durante décadas soñamos con construir máquinas inteligentes”.
Matías Rozenfarb

Hay quienes consideran que esto no preanuncia otra cosa que el fin de la especie humana. Argumentos hay. Por ejemplo, el que esboza Alejandro Madruga, licenciado en Cibernética Matemática de la Universidad de La Habana. Para él, “los peligros de la extinción humana pueden provenir de fuerzas externas, por accidentes humanos o por autoextinción”. Sobre este último punto, advierte sobre el peligro de una “destrucción consciente, producto de la naturaleza destructiva del ser humano o con fines de crear una especie superior”.

Razonamientos de este tipo sobran, y basta pensar en los modelos de algoritmos, en las máquinas que aprenden y en las tecnologías para la observación y manipulación en las redes. Toda una serie de constataciones que hoy mismo ya se están dando y que muchos pudieron visualizar de forma descarnada en el documental El dilema de las redes sociales, en Netflix.

LÍMITES ¿PARA QUIÉN? 

También hay motivos para pensar en otras perspectivas. El gran maestro de la literatura de ficción Isaac Asimov postuló en 1942 las llamadas “Tres Leyes de la Robótica”. Él hablaba de los robots, quizás imaginando los humanoides de las películas. O quizás así lo interpretábamos sus lectores. Pero se aplica perfectamente a la IA.

Anticipándose quizás cien años a la historia, Asimov postuló sus tres normas para garantizar que la raza humana pudiera ser mantenida a salvo:

• Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño.

• Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto si estas entran en conflicto con la primera ley.

• Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la primera o la segunda ley.

Leyes que en 1942 sonaban a fantasía total tienen tanto sentido en la actualidad que ya han sido ampliadas y modificadas para ajustarse al mundo real. 

Recordemos que hace millones de años, con la revolución del conocimiento, “el hombre superó en inteligencia al resto de los seres vivos y por eso logró dominar el planeta –apunta nuevamente Matías Rozenfarb–. Pero también, por eso mismo, lo estamos destruyendo”.

Asimov planteó aquellas tres reglas de la robótica en su cuento Runaround, en el cual se daba una descarnada lucha entre el humano y la inteligencia artificial. 

¿Y por qué era la lucha? Porque la inteligencia artificial defendía al planeta frente al ser humano que avanzaba inexorablemente hacia su destrucción. Y lo hacía simplemente cumpliendo las leyes postuladas por Asimov. 

Hoy aquella ficción también nos permite asomarnos a una pregunta filosófica: ¿somos los seres humanos los que le tenemos que poner un límite ético a la IA? ¿O tal vez termine siendo al revés? 

GLOSARIO I

Machine learning: Es el diseño de herramientas informáticas que utilizan la experiencia pasada para tomar decisiones futuras: programas que pueden aprender de los datos. Su objetivo es inducir una regla desconocida a partir de ejemplos donde esa regla es aplicada. Los motores de búsqueda, las recomendaciones de YouTube, el filtrado de correos son buenos ejemplos.

Big data: Tecnología que trata sobre el comportamiento de la gente y no sobre sus datos. Su objetivo es encontrar los patrones de relaciones y comportamientos entre medio del caos de los grandes volúmenes de datos que producimos. Sumados en su conjunto, estos datos se vuelven estadísticamente significativos y permiten anticipar decisiones de los usuarios.

Internet de las cosas: Tecnología que permite la conexión de diferentes objetos a Internet y entre sí. Esto facilita que objetos cotidianos (electrodomésticos, cámaras de seguridad, señales de tránsito) ganen conectividad y potencia computacional, creando posibilidades para unir información y acciones en los mundos real y digital.

(Conceptos del libro La era de las máquinas inteligentes, del autor argentino Raúl E. López Briega. Se puede acceder ingresando a iaarbook.github.io)

GLOSARIO II

Procesamiento del lenguaje natural: Permite dar a las máquinas la capacidad de leer y comprender los idiomas que hablamos los humanos. Busca responder a la pregunta de cómo las personas somos capaces de comprender el significado de una oración y dotar a las máquinas de esa capacidad, de manera automatizada y masiva.

Visión por computadora: Programar una computadora y diseñar algoritmos para que puedan entender qué hay en fotos y videos. Sirve para aplicaciones tan básicas como el OCR (reconocimiento óptico de caracteres) y hasta para las tecnologías de reconocimiento facial.

Interfaz cerebro/computadora: La forma natural de comunicación entre el cerebro y nuestro cuerpo requiere nervios y músculos. La interfaz cerebro-computadora lo que busca es una alternativa a esta comunicación, con un sistema artificial que mide directamente la actividad cerebral asociada a nuestra intención y la traduce en señales que pueden ser luego interpretadas por diferentes dispositivos.

(Conceptos del libro La era de las máquinas inteligentes, del autor argentino Raúl E. López Briega. Se puede acceder ingresando a iaarbook.github.io)