Después de haber programado dos chatbots para negociar entre ellos, los
investigadores de Facebook los dejaron charlar entre ellos y encontraron la manera
de conversar sin que los humanos comprendieran lo que se decían[1].
Gracias a la inteligencia artificial, los chatbots ya puede responder a algunas
de nuestras preguntas, llevar a cabo algunas de nuestras acciones, o incluso
hacer humor. Ahora es posible seguir una conversación entre dos altavoces
conectados, hablando entre sí durante varias horas, la inteligencia artificial
comienza a desarrollar su propio lenguaje imposible de entender por el hombre.
Al intentar entrenar dos chatbots para negociar transacciones comerciales, los
expertos en inteligencia artificial de la Inteligencia Artificial descubrieron
que habían desarrollado un lenguaje más adecuado a sus objetivos.
El objetivo de los investigadores era enseñar a los chatbots a argumentar hasta que obtuvieran la mejor negociación
posible, para que los chatbots aprendieran la mecánica de la negociación, los
ingenieros usaron los algoritmos del aprendizaje automático. Al dejar a estos
"agentes de conversación" negociar entre ellos, los investigadores
sacaron dos conclusiones: no sólo los chatbots continúaban la negociación por
más tiempo y con más determinación de lo que un ser humano lo haría, sino que
además desarrollaban, a medida que avanzaba la discusión, técnicas para las que
no han sido programadas y, sobre todo, aprendiendo a complicar la conversación
para lograr su objetivo y modificar sus parámetros: los chatbots habían
desarrollado su propio lenguaje.
El objetivo inicial de los investigadores era que los chatbots mantuviera
el control durante una conversación clásica, con el fin de completar su
experiencia, hicieron pasar una nueva prueba a uno de sus chatbots: esta vez el
resultado obtenido fue que durante una conversación en línea con un ser humano
las personas no se daban cuenta de que estaban tratando con un robot en lugar
de con un ser humano.
¿Inteligencia humana colectiva o inteligencia artificial?
Por lo tanto, el modelo de negocio de la "red social" parece difícilmente
incompatible con el principio de competencia: hasta la fecha no existe una red
totalmente descentralizada y desintermediada, ni siquiera la red Bitcoin ya que
no es un sistema sin intermediarios puesto que para la validación de sus
transacciones, acogen una copia del registro de la compra y en consecuencia el
mantenimiento de los ordenadores que requieren estas operaciones es
descentralizada por un grupo secundario pero éste, es un servidor que no está en
relación con el resto de los usuarios. La tecnología de cadena de bloques, sin
duda, permitirá a las empresas facilitar la externalización de algunas de sus
actividades y reducir los costos de las operaciones de compensación pero queda
por demostrar que un sistema descentralizado puede integrarse plenamente.
El problema del arbitraje entre centralización y descentralización está
vinculado a la relación entre los individuos y la sociedad, entre los niveles
local y global. Por lo tanto, de acuerdo con el estado actual de los
conocimientos en física cuántica, parece que por debajo de un tamaño de una"bisagra"
entre los niveles molecular y atómico, las leyes naturales serían diferentes de
los observados a nivel macroscópico. Sin embargo, dado que el global / macro se
compone del local / micro, podríamos esperar una coherencia de integración
entre las dos dimensiones. Sin embargo, esta aparente falta de coherencia sólo
es evidente cuando el observador es incapaz de identificar el que activará la
medición del fenómeno observado.
Ahora sabemos que los agentes se auto organizan para maximizar la velocidad
a la que dispersan la energía. Este es aparentemente el caso de las moléculas
de aire en un ciclón, así como las neuronas
en nuestro cerebro. Las sociedades humanas forman una red neuronal de agentes
interconectados. Sin embargo, en simulaciones numéricas la información recibida
se limita a una señal binaria, así como la acción mecánica resultante. Cuando
se elige la palanca derecha, todas las neuronas reciben la misma señal de
recompensa / satisfacción asociada con una aportación de energía
Las capacidades de procesamiento de datos, tales como el volumen de
almacenamiento y la velocidad de cálculo, no son típicamente humanas puesto que
son también reproducibles por las máquinas y observadas en animales. No
obstante, las máquinas no pueden imitar la estética, la invención y la
proyección idealizadas del futuro, la felicidad o la tristeza…
Los programas que modifican o incluso crean programas en la base han sido
creados por los seres humanos, especialmente las reglas de las reglas de
auto-modificación. Algunos comportamientos que distinguen al hombre del animal
y de la máquina son el altruismo y la voluntad de entender las leyes de la
naturaleza. Las nociones de ética y justicia son típicamente sociales ya que
implican las relaciones afectivas entre individuos.
Si la impulsividad y la emoción extrema nos conllevan a tomar malas
decisiones, la racionalidad también nos puede empujar a ello. La noción de
conciencia implica las de libre voluntad y responsabilidad, además los rasgos
distintivos del ser humano son que:
•
asume
riesgos fuera de lo estrictamente calculable,
•
tiene
capacidad para limitar su supremacía para dar cabida a otros,
•
sale
de sus propias representaciones para describir su naturaleza,
•
va
continuamente más allá de los límites del lenguaje para interpretar y dar
sentido.
Si estamos sometidos a influencias de nuestro entorno de las que no
necesariamente somos conscientes, es precisamente el lapso de tiempo entre la
intención, la voluntad y la decisión lo que permite finalmente al individuo no
pasar al acto. Así, la conciencia está ligada a la reflexión, que procede de
acuerdo con un mecanismo de unión y retroalimentación entre la deducción y la
creencia en el libre albedrío, ésta es la ventaja que tiene contra la maquina el
ser socialmente ético.
Los ordenadores tienen una multiplicación similar a las capacidades de la
parte del cerebro humano que trata de la racionalidad, el neo córtex. Nuestro
cerebro límbico está al servicio de un cerebro aún más arcaico, el cerebro
reptil. Este último fue creado por nuestros genes para servirles, moléculas
simples, nuestros genes obedecen a las leyes de la termodinámica. Se sabe hoy
que el comportamiento humano está sólo parcialmente determinado por sus genes.
Las interacciones entre cada individuo y su entorno también son determinantes e
incluso modifican la estructura del cerebro. Esto concierne a todo el reino
animal, excepto que el aspecto cultural desempeñaría un papel mucho más
importante en los seres humanos que en otros animales, especialmente debido a
las capacidades humanas desarrolladas por el lenguaje.
La integración del conocimiento es necesariamente un proceso colectivo, ya
que ningún investigador puede conocer y comprender la totalidad del
conocimiento, incluso de su propia rama. Este proceso opera dentro de una red
mixta, peer-to-peer y centralizada: los intercambios de conocimiento se llevan
a cabo individualmente en una red peer-to-peer y, por otra parte, la
integración de conocimientos se opera globalmente, lo que necesariamente
requiere alguna forma de centralización.
Transhumanismo
La entropía ontológica descrita por la evolución transhumanista justifica
la aserción de que el capital es un factor agente de producción. Estamos en
plena ideología liberal considerando al ser humano como una mercancía cuyo
precio se negocia en un mercado de trabajo. Esta ideología se asemeja cada vez
más a un nuevo culto de los tiempos modernos, de los cuales los economistas y académicos
son los instrumentos. Este culto es particularmente el desarrollado por los intereses de una oligarquía que conlleva a la regresión al estado de la naturaleza por
el desmantelamiento de las naciones, a la uniformidad cultural y la
deconstrucción del estado de bienestar y el estado de derecho. La coherencia
entrópica de esta ideología evolutiva se basa en una dinámica dual tecnológica
y globalizante que induce: a nivel individual y local, a un fenómeno de
entropía ontológica (transhumanismo); a nivel social y global, un fenómeno de entropía social
(desmantelamiento de Estados-nación).
Una regresión hacia la ley de la selva que nos conduciría a una
inteligencia artificial que ya no estaría bajo el control de la inteligencia
colectiva. Es preciso aquí Recordar que la inteligencia artificial en un
principio es el fruto de la inteligencia colectiva, no sólo en su diseño, sino
también en su uso. De hecho, es la comunidad la que constituye la fuente de las
bases de datos, la materia prima de los sistemas expertos. Sin embargo, la
explotación racional de estos datos parece estar sujeta a limitaciones.
El fenómeno no lineal de la sensibilidad a las condiciones iniciales pone
en tela de juicio la idea de determinismo y requiere una revisión de la noción
de causalidad. De hecho, al hacer clic en el botón de traducción de Google
comprobamos una impresionante velocidad de traducción, pero una calidad
mediocre (por eso nos pide Google que propongamos una mejor (nueva) traducción),
e incluso una incapacidad para traducir palabras y expresiones fuera del uso
actual e interpersonal.
Si existen o no limitaciones intrínsecas al conocimiento el peligro sigue
siendo la IA, más allá de que la inteligencia humana y colectiva, pueda
someterla a su control. Según los expertos, este riesgo puede neutralizarse
mediante la técnica de restringir la IA mediante contratos inteligentes en
cadenas de bloque. Por lo tanto, el problema del control de la IA debe
integrarse en el del control de los medios de producción de la IA. La ideología
liberal es binaria et distingue entre
factores (agentes) y medios (objetos) de producción, entre los seres humanos y las
máquinas, la primera es considerada como mercancías puesto que si se convierten
en objetos (los medios) es necesariamente para el beneficio de sus
propietarios.
En el mismo sentido, es fundamental que la inteligencia artificial
permanezca subordinada a la inteligencia colectiva. De hecho, la creciente
complejidad del funcionamiento de los sistemas expertos hace que exista el
riesgo de una pérdida de control de las máquinas inteligentes. Incluso los
sistemas de aprendizaje automático se basan en algoritmos hechos por el hombre
y este trabajo de programación está influenciado por los intereses de los
programadores o sus patrocinadores.
Incluso si resulta que estas limitaciones son reales, parece que la
inteligencia artificial no cambiará nada porque los robots que aprenden por sí
mismos y se re-programan fueron creados
originalmente por los seres humanos, y el paso del tiempo no alterará el
carácter determinista de la programación original por los seres humanos.
La controversia entre Elon Musk, director de SpaceX y Tesla, y Marc
Zuckerberg, fundador y CEO de Facebook, sobre los peligros y las oportunidades
de la inteligencia artificial (IA) tiene algo beneficioso: observamos que los
gigantes de la nueva economía no son un bloque monolítico cuya única
preocupación sería crear con fórceps una nueva sociedad digital, sin ser consciente
del significado de esta revolución en curso.
Además, observamos que nuestros reglamentos siguen organizados en silos
sectoriales, sin embargo, ningún regulador por sí solo será lo suficientemente
poderoso contra estas máquinas de aprendizaje. En presencia de algoritmos y
sistemas que se desarrollan según su propia lógica de autoaprendizaje, es el
momento de implementar esta inteligencia colectiva rara vez aplicada. Sólo la
puesta en común de la inteligencia humana y la des compartimentación de
habilidades y enfoques nos permitirá domesticar a este nuevo actor en nuestras
sociedades.
Por otra parte, la inteligencia artificial de las metrópolis del mañana es
terreno privilegiado para probar esta "regulación inteligente" puesto
que son concentrados de creatividad, y ya han desplegado políticas públicas
innovadoras. Tienen los recursos y la escala relevante para que esta nueva
regulación se mantenga cerca de las expectativas de los ciudadanos en busca de
transparencia. En una palabra, son capaces de domesticar la complejidad
planteada por los avances de la inteligencia artificial. Volver al sentido común
es lo que Rabelais propuso ya en el siglo XVI, cuando dijo que "la ciencia
sin conciencia no es sino la ruina del alma”.
Una vez que la caja de Pandora se abre, es difícil de cerrarla.
En un discurso a la Asociación Nacional de Gobernadores en este 2017, el
CEO de Tesla y SpaceX se volvió a plantear los temores que había que tener en
cuenta sobre la inteligencia artificial. Se ha logrado crear un debate global
sobre el temade que ésta se la considera la mayor amenaza para la humanidad,
junto al lado de la bomba atómica: se hizo referencia a la IA como "el mayor
riesgo que afronta la civilización", y se sentía que había una necesidad
urgente de regular esta tecnología y que los gobiernos debían unirse antes de
que fuera demasiado tarde.
Elon Musk explicó a los funcionarios electos que la inteligencia artificial
podría constituir una "amenaza existencial" para la civilización
humana y que “los robots serán capaces de hacer las cosas mejor que nosotros y
que había preocupaciones que iban más allá del mercado de trabajo. La AI es uno
de los pocos casos en donde necesitamos regulación proactiva en lugar de
reactiva. Esta es un riesgo para la civilización humana y más peligrosa que las
drogas defectuosas y la malnutrición. Elon Musk sigue con su cruzada contra una
inteligencia artificial desregulada pero éste lanzó él mismo la compañía de
Neuralink que aspira alterar el cerebro humano con ayuda de la inteligencia
artificial.
Frente a las amenazas y riesgos de la inteligencia artificial, Elon Musk,
que no preconiza la intervención de los organismos de control en el sector
tecnológico, aboga por la regulación preventiva. Porque cree que si esperamos
demasiado tiempo para reaccionar, será demasiado tarde”. Musk también propuso
crear una nueva agencia reguladora para regular la investigación de esta
industria y al mismo tiempo fue él el que empezó a interesarse por estas
cuestiones en 2014 cuando invirtió en Deep Mind antes de que fuera comprada por
Google. Advirtió que no esperaba tener un retorno significativo de la
inversión, pero que quería mantener un ojo abierto sobre la evolución de la
inteligencia artificial y mejorar la comprensión de los retos y las amenazas
relacionadas con la inteligencia artificial. Finalmente, creó en 2015 la
compañía OpenAI sin fines de lucro cuya misión es construir una inteligencia
artificial general segura. El objetivo es avanzar la inteligencia digital de
una manera que beneficie a toda la humanidad sin un retorno necesario de la
inversión. Dado que el trabajo no depende de los objetivos de rentabilidad,
pueden centrarse en un mejor impacto humano positivo.
La robótica y la inteligencia artificial están preparadas para sacudir
partes enteras de la economía. Sin embargo, estas tecnologías llegan también al
campo de batalla, así, con el desarrollo de las primeras máquinas que pueden
matar de forma autónoma sin intervención humana, es probable que exista la
amenaza de convertirse en la tercera revolución de la guerra. De hecho,
cañones, misiles y drones podían ser controlados directamente por algoritmos de
inteligencia artificial, sin el ser humano. Con las peligrosas consecuencias, especialmente si
estas armas son utilizadas por terroristas contra poblaciones inocentes, o se
piratean para comportarse de una manera maliciosa.
Esta advertencia sobre los peligros de los robots viene después de un
primer llamamiento firmado por Elon Musk, pero también por el físico Stephen
Hawking o el lingüista Noam Chomsky.
[1] Fechas clave de la IA.
• 1950: Alan Turing imagina la máquina inteligente
• 1956: la inteligencia artificial se convierte en ciencia
• 1957: Perceptron, la primera máquina de aprendizaje
• 1968: Kubrick, la IA se convierte en estrella de cine
• 1973: Congelación de la IA
• 1997: Triunfo de Deep Blue en Kasparov
• 2011: Watson, IBM gana "Jeopardy!"
• 2013: GAFA y las maquinas que aprenden
• 2016: Google Go Master
• 2017: A medida que avanzan en la discusión, los chatbots desarrollan
técnicas para las que no han sido programadas y, sobre todo, aprenden a
complicar la conversación para lograr su objetivo y modificar sus parámetros:
los chatbots terminaron desarrollando su propio idioma.