Ciencia

AI Building AI: La humanidad pierde más control sobre la inteligencia artificial

AI Building AI es la siguiente fase que la humanidad parece estar atravesando en su evolución tecnológica. Estamos en el punto donde las corporaciones están diseñando máquinas, robots y programas de Inteligencia Artificial (IA) para hacer máquinas, robots y programas de IA infantiles – en otras palabras, tenemos IA construyendo IA.

siguiente paso IA

Mientras que algunos elogian este desarrollo y señalan los beneficios (el hecho de que la IA es ahora más inteligente que la humanidad en algunas áreas, y por lo tanto supuestamente puede diseñar mejor la IA que los humanos), hay una grave consecuencia para todo esto: la humanidad se está alejando aún más del proceso de diseño y, por lo tanto, tiene menos control sobre el mismo.

Ahora hemos llegado a un momento decisivo con la IA construyendo la IA mejor que los humanos. Si la IA construye una IA infantil que supera el rendimiento, supera a la inteligencia y supera a la humanidad, ¿qué pasa si queremos modificarlo o apagarla, pero no podemos?

Después de todo, no lo diseñamos, así que ¿cómo podemos estar 100% seguros de que no habrá consecuencias involuntarias? ¿Cómo podemos estar seguros de que podemos controlarlo directamente al 100%?

AI Building AI: La IA infantil supera a todos los demás sistemas informáticos en funcionamiento

Los investigadores de Google Brain anunciaron en mayo de 2017 que habían creado AutoML, una IA que puede crear IA para niños. El “ML” en AutoML significa Machine Learning.

Mientras que este artículo AI de Google construyó su propia IA que supera a cualquier otro hecho por los seres humanos revela, AutoML creó una IA infantil llamada NASNet que superó a todos los demás sistemas informáticos en su tarea de reconocimiento de objetos:

Los investigadores de Google automatizaron el diseño de modelos de aprendizaje de máquinas utilizando un enfoque llamado aprendizaje de refuerzo.

AutoML actúa como una red neuronal de controladores que desarrolla una red de AI infantil para una tarea específica. Para esta IA infantil en particular, que los investigadores llamaron NASNet, la tarea consistía en reconocer objetos -personas, coches, semáforos, bolsos, mochilas, etc. – en un vídeo en tiempo real.

AutoML evaluaría el rendimiento de NASNet y usaría esa información para mejorar su AI infantil, repitiendo el proceso miles de veces. Cuando se probó en la clasificación de imágenes ImageNet y en los conjuntos de datos de detección de objetos COCO, que los investigadores de Google denominan “dos de los conjuntos de datos académicos a gran escala más respetados en visión por ordenador”, NASNet superó a todos los demás sistemas de visión por ordenador. Según los investigadores, NASNet fue 82.7 por ciento preciso en la predicción de imágenes en el set de validación de ImageNet.

Esto es un 1,2 por ciento mejor que cualquier resultado previamente publicado, y el sistema también es un 4 por ciento más eficiente, con una precisión media media de 43,1 por ciento (mAP).

Con AutoML, Google está construyendo algoritmos que analizan el desarrollo de otros algoritmos, para saber qué métodos son exitosos y cuáles no. Estamos entrando en un futuro en el que las computadoras inventarán algoritmos para resolver problemas más rápido de lo que podemos, y la humanidad será cada vez más alejada de todo el proceso.

AI Building AI: Parámetros programados vs. Parámetros programados Sistemas Autónomos y Adaptables

Lo que está en juego es cuánta “libertad” le damos a IA. Con eso quiero decir esto: los que impulsan la agenda tecnológica se jactan de que IA es cualitativamente diferente a cualquier máquina del pasado, porque IA es autónoma y adaptable, lo que significa que puede “pensar” por sí misma, aprender de sus errores y alterar su comportamiento en consecuencia.

Esto hace que la IA sea más formidable y al mismo tiempo mucho más peligrosa, porque entonces perdemos la capacidad de predecir cómo va a actuar. Comienza a escribir sus propios algoritmos de maneras que no comprendemos basándose en su supuesta capacidad “autocorrectiva”, y muy pronto no tenemos forma de saber lo que hará.

Ahora, ¿qué pasa si a una IA tan autónoma y adaptable se le da el margen para crear una IA infantil que tenga los mismos parámetros?

La humanidad es entonces un paso más allá de la creación. Sí, podemos programar la primera IA para que sólo diseñe IAs para niños dentro de ciertos parámetros, pero ¿podemos controlar en última instancia ese proceso y asegurarnos de que los sesgos no se transmitan, dado que estamos programando AI en primer lugar para ser más humanos y aprender de sus errores?

En su artículo The US and the Global Artificial Intelligence Arms Race, Ulson Gunnar escribe:

El Dr. Darío Amodei, de OpenAI, señaló que la investigación realizada en el aprendizaje automático a menudo resultó en soluciones no deseadas desarrolladas por IA. Él y otros investigadores señalaron que a menudo el proceso de toma de decisiones de los sistemas de IA no se entiende del todo y muchos resultados son a menudo difíciles de predecir.

El peligro no radica necesariamente en el primer entrenamiento de las plataformas de IA en los laboratorios y la liberación de un sistema entrenado en el piso de una fábrica, en las carreteras públicas o incluso en el combate con capacidades predeterminadas y predecibles, sino en la liberación de sistemas autónomos de IA con la capacidad de seguir aprendiendo y adaptándose de maneras impredecibles, indeseables y potencialmente peligrosas.

La Dra. Kathleen Fisher reiteraría esta preocupación, señalando que las armas cibernéticas autónomas y autoadaptables podrían potencialmente crear daños colaterales impredecibles. El Dr. Fisher también señalaría que los humanos serían incapaces de defenderse contra los agentes de la IA.

AI Building AI: ¿Podemos estar 100% seguros de que estamos protegidos contra la IA?

Poder y fuerza sin sabiduría y bondad es algo peligroso, y eso es exactamente lo que estamos creando con AI. No podemos nunca enseñarle a ser sabio o amable, ya que esas cualidades surgen de tener conciencia, emoción y empatía.

Mientras tanto, lo mejor que podemos hacer es tener unos parámetros éticos muy estrictos, pero no hay garantías en este caso. La persona promedio no tiene forma de saber qué código fue creado para limitar el comportamiento de IA.

Incluso si todos los programadores de IA en el mundo quisieran asegurar limitaciones éticas adecuadas, ¿qué pasa si alguien comete un error en alguna parte? ¿Qué pasa si AutoML crea sistemas tan rápidamente que la sociedad no puede mantenerse al día en términos de entenderlos y regularlos?

NASNet podría emplearse fácilmente en sistemas de vigilancia automatizados debido a su excelente reconocimiento de objetos. ¿Cree usted que los controladores de la NWO dudarían incluso por un momento en desplegar la IA contra el público para proteger su poder y destruir su oposición?

La IA de Google construyó su propia AI que supera a cualquier artículo hecho por humanos intenta tranquilizarnos con su conclusión:

Afortunadamente, los líderes mundiales están trabajando rápidamente para asegurar que tales sistemas no conduzcan a ningún tipo de futuro distópico.

Amazon, Facebook, Apple y varios otros son miembros de la Alianza en AI para Beneficiar a las Personas y la Sociedad, una organización centrada en el desarrollo responsable de AI.

El Instituto de Ingenieros Eléctricos y Electrónicos (IEE) ha propuesto normas éticas para la IA, y DeepMind, una compañía de investigación propiedad de la empresa matriz de Google Alphabet, anunció recientemente la creación de un grupo centrado en las implicaciones morales y éticas de la AI.

Varios gobiernos también están trabajando en regulaciones para prevenir el uso de la IA con fines peligrosos, como las armas autónomas, y mientras los seres humanos mantengan el control de la dirección general del desarrollo de la AI, los beneficios de tener una IA que pueda construir una IA debe superar con creces cualquier posible escollo.

Sin embargo, no estoy nada más que tranquilizado. Podemos establecer todos los comités de ética que queramos. El hecho es que teóricamente es imposible protegernos al 100% de la IA. El artículo Containing a Superintelligent AI Is Theoretically Impossible explica:

… según algunos nuevos trabajos de investigadores de la Universidad Autónoma de Madrid, así como de otras escuelas de España, Estados Unidos y Australia, una vez que una IA se convierte en “súper inteligente”… será imposible contenerla.

Bueno, los investigadores usan la palabra “incomputable” en su trabajo, publicado en el servidor de preimpresión ArXiv, que en el mundo de la informática teórica es tal vez aún más condenatorio. El quid de la cuestión es el “problema de detención” ideado por Alan Turing, que sostiene que ningún algoritmo es capaz de predecir correctamente si otro algoritmo funcionará para siempre o si eventualmente se detendrá, es decir, si dejará de funcionar.

Imagine una IA superinteligente con un programa que contenga todos los demás programas existentes. Los investigadores proporcionaron una prueba lógica de que si tal IA podía ser contenido, entonces el problema de la detención se resolvería por definición. Para contener esa IA, el argumento es que tendrías que simularla primero, pero ya simula todo lo demás, y así llegamos a una paradoja.

No sería factible asegurarse de que una IA nunca cause daño a los humanos.

Mientras tanto, parece que hay demasiados señuelos y promesas de ganancias, conveniencia y control para que la humanidad se ralentice. AI está empezando a apoderarse de todo. Facebook acaba de desplegar una nueva IA que escanea las entradas de los usuarios en busca de comentarios “preocupantes” o “suicidas” y luego los denuncia a la policía! Este artículo establece:

Facebook admite que le han pedido a la policía que lleve a cabo más de un centenar de controles de bienestar sobre la gente.

Durante el último mes, hemos trabajado con los equipos de primeros auxilios en más de 100 controles de bienestar basados en los informes que recibimos a través de nuestros esfuerzos de detección proactiva. Esto se suma a los informes que recibimos de personas de la comunidad de Facebook”.

¡Suscríbete a Despierta!

Introduce tu correo electrónico para suscribirte al blog y recibir notificaciones de nuevas entradas.