De la inteligencia colectiva a la inteligencia artificial



La fuerza del lenguaje

Después de haber programado dos chatbots para negociar entre ellos, los investigadores de Facebook los dejaron charlar entre ellos y encontraron la manera de conversar sin que los humanos comprendieran lo que se decían[1]. Gracias a la inteligencia artificial, los chatbots ya puede responder a algunas de nuestras preguntas, llevar a cabo algunas de nuestras acciones, o incluso hacer humor. Ahora es posible seguir una conversación entre dos altavoces conectados, hablando entre sí durante varias horas, la inteligencia artificial comienza a desarrollar su propio lenguaje imposible de entender por el hombre. Al intentar entrenar dos chatbots para negociar transacciones comerciales, los expertos en inteligencia artificial de la Inteligencia Artificial descubrieron que habían desarrollado un lenguaje más adecuado a sus objetivos.

El objetivo de los investigadores era enseñar a los chatbots a argumentar  hasta que obtuvieran la mejor negociación posible, para que los chatbots aprendieran la mecánica de la negociación, los ingenieros usaron los algoritmos del aprendizaje automático. Al dejar a estos "agentes de conversación" negociar entre ellos, los investigadores sacaron dos conclusiones: no sólo los chatbots continúaban la negociación por más tiempo y con más determinación de lo que un ser humano lo haría, sino que además desarrollaban, a medida que avanzaba la discusión, técnicas para las que no han sido programadas y, sobre todo, aprendiendo a complicar la conversación para lograr su objetivo y modificar sus parámetros: los chatbots habían desarrollado su propio lenguaje.
El objetivo inicial de los investigadores era que los chatbots mantuviera el control durante una conversación clásica, con el fin de completar su experiencia, hicieron pasar una nueva prueba a uno de sus chatbots: esta vez el resultado obtenido fue que durante una conversación en línea con un ser humano las personas no se daban cuenta de que estaban tratando con un robot en lugar de con un ser humano.

¿Inteligencia humana colectiva o inteligencia artificial?

Por lo tanto, el modelo de negocio de la "red social" parece difícilmente incompatible con el principio de competencia: hasta la fecha no existe una red totalmente descentralizada y desintermediada, ni siquiera la red Bitcoin ya que no es un sistema sin intermediarios puesto que para la validación de sus transacciones, acogen una copia del registro de la compra y en consecuencia el mantenimiento de los ordenadores que requieren estas operaciones es descentralizada por un grupo secundario pero éste, es un servidor que no está en relación con el resto de los usuarios. La tecnología de cadena de bloques, sin duda, permitirá a las empresas facilitar la externalización de algunas de sus actividades y reducir los costos de las operaciones de compensación pero queda por demostrar que un sistema descentralizado puede integrarse plenamente.

El problema del arbitraje entre centralización y descentralización está vinculado a la relación entre los individuos y la sociedad, entre los niveles local y global. Por lo tanto, de acuerdo con el estado actual de los conocimientos en física cuántica, parece que por debajo de un tamaño de una"bisagra" entre los niveles molecular y atómico, las leyes naturales serían diferentes de los observados a nivel macroscópico. Sin embargo, dado que el global / macro se compone del local / micro, podríamos esperar una coherencia de integración entre las dos dimensiones. Sin embargo, esta aparente falta de coherencia sólo es evidente cuando el observador es incapaz de identificar el que activará la medición del fenómeno observado.

Ahora sabemos que los agentes se auto organizan para maximizar la velocidad a la que dispersan la energía. Este es aparentemente el caso de las moléculas de aire en un ciclón,  así como las neuronas en nuestro cerebro. Las sociedades humanas forman una red neuronal de agentes interconectados. Sin embargo, en simulaciones numéricas la información recibida se limita a una señal binaria, así como la acción mecánica resultante. Cuando se elige la palanca derecha, todas las neuronas reciben la misma señal de recompensa / satisfacción asociada con una aportación de energía

Las capacidades de procesamiento de datos, tales como el volumen de almacenamiento y la velocidad de cálculo, no son típicamente humanas puesto que son también reproducibles por las máquinas y observadas en animales. No obstante, las máquinas no pueden imitar la estética, la invención y la proyección idealizadas del futuro, la felicidad o la tristeza…

Los programas que modifican o incluso crean programas en la base han sido creados por los seres humanos, especialmente las reglas de las reglas de auto-modificación. Algunos comportamientos que distinguen al hombre del animal y de la máquina son el altruismo y la voluntad de entender las leyes de la naturaleza. Las nociones de ética y justicia son típicamente sociales ya que implican las relaciones afectivas entre individuos.

Si la impulsividad y la emoción extrema nos conllevan a tomar malas decisiones, la racionalidad también nos puede empujar a ello. La noción de conciencia implica las de libre voluntad y responsabilidad, además los rasgos distintivos del ser humano son que:
  • asume riesgos fuera de lo estrictamente calculable, 
  •  tiene capacidad para limitar su supremacía para dar cabida a otros,
  • sale de sus propias representaciones para describir su naturaleza,
  • va continuamente más allá de los límites del lenguaje para interpretar y dar sentido.

Si estamos sometidos a influencias de nuestro entorno de las que no necesariamente somos conscientes, es precisamente el lapso de tiempo entre la intención, la voluntad y la decisión lo que permite finalmente al individuo no pasar al acto. Así, la conciencia está ligada a la reflexión, que procede de acuerdo con un mecanismo de unión y retroalimentación entre la deducción y la creencia en el libre albedrío, ésta es la ventaja que tiene contra la maquina el ser socialmente ético.
Los ordenadores tienen una multiplicación similar a las capacidades de la parte del cerebro humano que trata de la racionalidad, el neo córtex. Nuestro cerebro límbico está al servicio de un cerebro aún más arcaico, el cerebro reptil. Este último fue creado por nuestros genes para servirles, moléculas simples, nuestros genes obedecen a las leyes de la termodinámica. Se sabe hoy que el comportamiento humano está sólo parcialmente determinado por sus genes. Las interacciones entre cada individuo y su entorno también son determinantes e incluso modifican la estructura del cerebro. Esto concierne a todo el reino animal, excepto que el aspecto cultural desempeñaría un papel mucho más importante en los seres humanos que en otros animales, especialmente debido a las capacidades humanas desarrolladas por el lenguaje.

La integración del conocimiento es necesariamente un proceso colectivo, ya que ningún investigador puede conocer y comprender la totalidad del conocimiento, incluso de su propia rama. Este proceso opera dentro de una red mixta, peer-to-peer y centralizada: los intercambios de conocimiento se llevan a cabo individualmente en una red peer-to-peer y, por otra parte, la integración de conocimientos se opera globalmente, lo que necesariamente requiere alguna forma de centralización.

Transhumanismo

La entropía ontológica descrita por la evolución transhumanista justifica la aserción de que el capital es un factor agente de producción. Estamos en plena ideología liberal considerando al ser humano como una mercancía cuyo precio se negocia en un mercado de trabajo. Esta ideología se asemeja cada vez más a un nuevo culto de los tiempos modernos, de los cuales los economistas y académicos son los instrumentos. Este culto es particularmente el desarrollado por  los intereses de una oligarquía que conlleva  a la regresión al estado de la naturaleza por el desmantelamiento de las naciones, a la uniformidad cultural y la deconstrucción del estado de bienestar y el estado de derecho. La coherencia entrópica de esta ideología evolutiva se basa en una dinámica dual tecnológica y globalizante que induce: a nivel individual y local, a un fenómeno de entropía ontológica (transhumanismo); a nivel social  y global, un fenómeno de entropía social (desmantelamiento de Estados-nación).

Una regresión hacia la ley de la selva que nos conduciría a una inteligencia artificial que ya no estaría bajo el control de la inteligencia colectiva. Es preciso aquí Recordar que la inteligencia artificial en un principio es el fruto de la inteligencia colectiva, no sólo en su diseño, sino también en su uso. De hecho, es la comunidad la que constituye la fuente de las bases de datos, la materia prima de los sistemas expertos. Sin embargo, la explotación racional de estos datos parece estar sujeta a limitaciones.

El fenómeno no lineal de la sensibilidad a las condiciones iniciales pone en tela de juicio la idea de determinismo y requiere una revisión de la noción de causalidad. De hecho, al hacer clic en el botón de traducción de Google comprobamos una impresionante velocidad de traducción, pero una calidad mediocre (por eso nos pide Google que propongamos una mejor (nueva) traducción), e incluso una incapacidad para traducir palabras y expresiones fuera del uso actual e interpersonal.
Si existen o no limitaciones intrínsecas al conocimiento el peligro sigue siendo la IA, más allá de que la inteligencia humana y colectiva, pueda someterla a su control. Según los expertos, este riesgo puede neutralizarse mediante la técnica de restringir la IA mediante contratos inteligentes en cadenas de bloque. Por lo tanto, el problema del control de la IA debe integrarse en el del control de los medios de producción de la IA. La ideología liberal es  binaria et distingue entre factores (agentes) y medios (objetos) de producción, entre los seres humanos y las máquinas, la primera es considerada como mercancías puesto que si se convierten en objetos (los medios) es necesariamente para el beneficio de sus propietarios.

En el mismo sentido, es fundamental que la inteligencia artificial permanezca subordinada a la inteligencia colectiva. De hecho, la creciente complejidad del funcionamiento de los sistemas expertos hace que exista el riesgo de una pérdida de control de las máquinas inteligentes. Incluso los sistemas de aprendizaje automático se basan en algoritmos hechos por el hombre y este trabajo de programación está influenciado por los intereses de los programadores o sus patrocinadores.
Incluso si resulta que estas limitaciones son reales, parece que la inteligencia artificial no cambiará nada porque los robots que aprenden por sí mismos y se re-programan  fueron creados originalmente por los seres humanos, y el paso del tiempo no alterará el carácter determinista de la programación original por los seres humanos.

La controversia entre Elon Musk, director de SpaceX y Tesla, y Marc Zuckerberg, fundador y CEO de Facebook, sobre los peligros y las oportunidades de la inteligencia artificial (IA) tiene algo beneficioso: observamos que los gigantes de la nueva economía no son un bloque monolítico cuya única preocupación sería crear con fórceps una nueva sociedad digital, sin ser consciente del significado de esta revolución en curso.

Además, observamos que nuestros reglamentos siguen organizados en silos sectoriales, sin embargo, ningún regulador por sí solo será lo suficientemente poderoso contra estas máquinas de aprendizaje. En presencia de algoritmos y sistemas que se desarrollan según su propia lógica de autoaprendizaje, es el momento de implementar esta inteligencia colectiva rara vez aplicada. Sólo la puesta en común de la inteligencia humana y la des compartimentación de habilidades y enfoques nos permitirá domesticar a este nuevo actor en nuestras sociedades.

Por otra parte, la inteligencia artificial de las metrópolis del mañana es terreno privilegiado para probar esta "regulación inteligente" puesto que son concentrados de creatividad, y ya han desplegado políticas públicas innovadoras. Tienen los recursos y la escala relevante para que esta nueva regulación se mantenga cerca de las expectativas de los ciudadanos en busca de transparencia. En una palabra, son capaces de domesticar la complejidad planteada por los avances de la inteligencia artificial. Volver al sentido común es lo que Rabelais propuso ya en el siglo XVI, cuando dijo que "la ciencia sin conciencia no es sino la ruina del alma”.

Una vez que la caja de Pandora se abre, es difícil de cerrarla.

En un discurso a la Asociación Nacional de Gobernadores en este 2017, el CEO de Tesla y SpaceX se volvió a plantear los temores que había que tener en cuenta sobre la inteligencia artificial. Se ha logrado crear un debate global sobre el temade que ésta se la considera la mayor amenaza para la humanidad, junto al lado de la bomba atómica: se  hizo referencia a la IA como "el mayor riesgo que afronta la civilización", y se sentía que había una necesidad urgente de regular esta tecnología y que los gobiernos debían unirse antes de que fuera demasiado tarde.

Elon Musk explicó a los funcionarios electos que la inteligencia artificial podría constituir una "amenaza existencial" para la civilización humana y que “los robots serán capaces de hacer las cosas mejor que nosotros y que había preocupaciones que iban más allá del mercado de trabajo. La AI es uno de los pocos casos en donde necesitamos regulación proactiva en lugar de reactiva. Esta es un riesgo para la civilización humana y más peligrosa que las drogas defectuosas y la malnutrición. Elon Musk sigue con su cruzada contra una inteligencia artificial desregulada pero éste lanzó él mismo la compañía de Neuralink que aspira alterar el cerebro humano con ayuda de la inteligencia artificial.

Frente a las amenazas y riesgos de la inteligencia artificial, Elon Musk, que no preconiza la intervención de los organismos de control en el sector tecnológico, aboga por la regulación preventiva. Porque cree que si esperamos demasiado tiempo para reaccionar, será demasiado tarde”. Musk también propuso crear una nueva agencia reguladora para regular la investigación de esta industria y al mismo tiempo fue él el que empezó a interesarse por estas cuestiones en 2014 cuando invirtió en Deep Mind antes de que fuera comprada por Google. Advirtió que no esperaba tener un retorno significativo de la inversión, pero que quería mantener un ojo abierto sobre la evolución de la inteligencia artificial y mejorar la comprensión de los retos y las amenazas relacionadas con la inteligencia artificial. Finalmente, creó en 2015 la compañía OpenAI sin fines de lucro cuya misión es construir una inteligencia artificial general segura. El objetivo es avanzar la inteligencia digital de una manera que beneficie a toda la humanidad sin un retorno necesario de la inversión. Dado que el trabajo no depende de los objetivos de rentabilidad, pueden centrarse en un mejor impacto humano positivo.

La robótica y la inteligencia artificial están preparadas para sacudir partes enteras de la economía. Sin embargo, estas tecnologías llegan también al campo de batalla, así, con el desarrollo de las primeras máquinas que pueden matar de forma autónoma sin intervención humana, es probable que exista la amenaza de convertirse en la tercera revolución de la guerra. De hecho, cañones, misiles y drones podían ser controlados directamente por algoritmos de inteligencia artificial, sin el ser humano. Con las  peligrosas consecuencias, especialmente si estas armas son utilizadas por terroristas contra poblaciones inocentes, o se piratean para comportarse de una manera maliciosa.
Esta advertencia sobre los peligros de los robots viene después de un primer llamamiento firmado por Elon Musk, pero también por el físico Stephen Hawking o el lingüista Noam Chomsky.




[1] Fechas clave de la IA.

• 1950: Alan Turing imagina la máquina inteligente
• 1956: la inteligencia artificial se convierte en ciencia
• 1957: Perceptron, la primera máquina de aprendizaje
• 1968: Kubrick, la IA se convierte en estrella de cine
• 1973: Congelación de la IA
• 1997: Triunfo de Deep Blue en Kasparov
• 2011: Watson, IBM gana "Jeopardy!"
• 2013: GAFA y las maquinas que aprenden
• 2016: Google Go Master
• 2017: A medida que avanzan en la discusión, los chatbots desarrollan técnicas para las que no han sido programadas y, sobre todo, aprenden a complicar la conversación para lograr su objetivo y modificar sus parámetros: los chatbots terminaron desarrollando su propio idioma.

Commentaires

Technologies de l'intelligence, transhumanisme

Quelques réflexions sur l’IA

Les astrologues de la technoscience