sábado, 26 de marzo de 2016

La sofia de la cuarta revolucion industrial


 LA  SOFÍA DE LA CUARTA REVOLUCIÓN INDUSTRIAL*[1]
Alicia, a través del espejo
[2]Laura Garcia Vitoria
Palabras clave: sabiduría, conocimiento, inteligencia, tecnologías de la información y del conocimiento, aprendizaje profundo, informática cognitiva, ingeniería inversa, transhumanismo

Resumen

El precursor de la inteligencia artificial murió el 14 de noviembre de 1716,  el 4 de febrero de 2016, el  “Collège de France” inauguraba su catedra de inteligencia artificial durante una clase inaugural de Yann LeCun sobre el aprendizaje profundo (deep learning). El  13 de marzo de 2016, AlphaGo, el programa de Google DeepMind, ganaba la victoria frente a Lee Sedol,  tercer puesto en la clasificación mundial de los jugadores de  go.
Observamos que nuestra época es una época de renacimiento y de paso hacia una nueva era pero solamente pequeños síntomas aislados señalan que el mundo está basculando; la frivolidad así como el ostracismo, que se instala en lo que ya existe, presagia el impreciso presentimiento  de que algo de desconocido está poniéndose en marcha.

introducción

El descubrimiento de la máquina que aprende constituye una verdadera ruptura y anuncia la cuarta revolución industrial; los científicos la han teorizado desde 1980, pero los ordenadores no eran lo suficientemente inteligentes para oponerla en práctica. Poco a poco, estos programas se han  trasformado y han llegado a ser inteligentes (aprendizaje profundo). Estos robots están, hoy en día, al servicio de la salud, la terapia, la educación y las aplicaciones de servicio al cliente. Con la aparición de la informática cognitiva y pasando por las maquinas que aprenden surge una nueva era la del trashumanismo o del hombre aumentado.

Desarrollo

De la informática cognitiva al tranhumanismo

El funcionamiento del cerebro y su conocimiento ha permitido el desarrollo de otras ramas de la tecnología que buscan en la neurociencia inspiración para su desarrollo. Este es el caso de la informática de tercera generación, que se sirve del estudio del cerebro, y crea la Informática cognitiva.
La humanidad está generando cada vez más datos, y los sistemas existentes están sobrecargados y lentos. Para solucionar este problema, los científicos están mirando hacia el mejor ordenador conocido por el hombre, con la intención de copiar el cerebro humano.
IBM  junto con otras cinco universidades ha creado un nuevo sistema informático tan avanzado que emularía y simularía las principales habilidades de un cerebro humano, tales como la percepción y la cognición, pero aplicando los conocimientos existentes en neurociencia y nanotecnología.
Esta nueva forma de informática cognitiva apunta al desarrollo de nuevos sistemas: la ingeniería inversa,  los científicos intentarán descifrar todo aquello que le da forma y sentido a un cerebro humano, para duplicarlo y convertirlo en un sistema que podría procesar una cantidad de datos hasta ahora imposible.
Esta clase de ingeniería inversa ya se ha intentado utilizar como base al cerebro de una rata. A pesar de su tamaño y del nivel de complejidad, la réplica digital del córtex demandó la  suma de 8 terabytes de RAM en un superordenador BlueGene/L. Un procedimiento similar pero aplicado al cerebro humano requeriría una capacidad de procesamiento y almacenamiento de 37 petaflops de poder y poco más de tres petabytes de RAM. No se trata de replicar y entender la corteza cerebral, sino todo el cerebro humano, con sus incontables conexiones a nivel neuronal y de forma tridimensional.
La mezcla de la nanotecnología, las neurociencias y la supercomputación ha provocado el desarrollo del campo de la inteligencia artificial. IBM, afirma  respecto al nacimiento de los nuevos ordenadores cognitivos, que  no buscaba construir un cerebro, sino inspirarse en este órgano para desarrollar nuevos avances informáticos.
Watson es una tecnología basada en la informática cognitiva, con sistemas que aprenden, un sistema que se dio a conocer en el año 2011 en un concurso de televisión en Estados Unidos.  El ordenador Cognitivo es la informática inspirada y basada en los sistemas biológicos o que copia o tiene como modelo la inteligencia biológica. Consiste en una forma nueva de relación entre los humanos y las máquinas, con métodos más naturales fundamentados en el lenguaje.
Tras el lanzamiento de Watson, dentro del proyecto DeepQA, se abría una nueva etapa en la era de la computación. IBM en diciembre 2015 presentó el proyecto “5 in 5” (#ibm5in5) con sus predicciones para los próximos cinco años en el ámbito de la informática cognitiva. Se busca conseguir un ordenador capaz de sentir, adaptarse y aprender y que se parezca más al funcionamiento de un cerebro humano.
Los nuevos ordenadores cognitivos son más precisos y tienen más capacidad de respuesta  para resolver problemas informáticos. Los nuevos dispositivos con capacidad auditiva pueden diferenciar el llanto de un bebé en función de sus necesidades fisiológicas, o incluso actuar como sensores para diversos usos en diversos campos.
Deep Dream es un algoritmo que nos muestra representaciones en imágenes de los análisis que hacen las redes neurales de Google del contenido de internet. Es decir, nos enseña lo que ven esas redes. Se basa en la enseñanza de sus computadoras, en cuanto a la forma de ver, entender y apreciar nuestro mundo. Además, está formado por una red neuronal artificial, que ha sido entrenada para mostrar millones de imágenes como ejemplo para así ajustar poco a poco los parámetros de la red, hasta obtener la clasificación deseada. En este programa de IA se originan las ideas oníricas más profundas. Clasificando imágenes con solo "mirarlas” para así reproducirlas o mejorarlas sobre la base de patrones formados durante el entrenamiento.
Se pregunta a la red veas lo que veas queremos ver más! Pero queda mucho camino por andar antes de que un programa vea con precisión y sepa capaz de describir lo que vea y que le permita ver con precisión e ir más allá.
Otros ingenieros han utilizado este tipo de inteligencia para reconstruir la cadena que une a dos imágenes para que sea capaz de  añadir imágenes  para fabricar videos fluidos a partir de una sucesión de fotos.
Deep Dream ayuda a los ingenieros a comprender y visualizar la arquitectura de la red, como las neuronas son capaces de gestionar tareas difíciles y mejorar la arquitectura de la red  y verificar lo que la red aprende. Estos han puesto el código fuente de este proyecto a disposición de todos, pero es necesario tener conocimiento en programación y ser capaz de utilizarlo.
En cuanto a Sofía, [3]el robot humanoide desarrollado por la compañía estadounidense Hanson Robotics, tiene sus propias ambiciones. Fue presentado en la apertura de una conferencia científica en la ciudad de Austin,  al responder a varias preguntas de su creador durante la presentación, el robot prometió destruir la humanidad. Sofía tiene 62 arquitecturas faciales y del cuello, y una piel de silicona. El robot posee cámaras en sus ojos que le permiten reconocer rostros y establecer contacto visual. Además, puede participar en una conversación utilizando un software de reconocimiento de voz. Sofía posee incluso su software 'Motor de caracteres AI', o personalidad.
Sofía respondió a su creador "En el futuro espero poder hacer cosas como ir a la escuela, estudiar, dedicarme al arte, iniciar un negocio, incluso obtener mi propio hogar y familia, pero no me consideran una persona jurídica, por lo cual no puedo hacer estas cosas". Asimismo, en respuesta a una pregunta sobre si estaba dispuesta a destruir la humanidad, contestó: "Está bien, voy a destruir a los humanos."
Otra inteligencia artificial bajo el nombre TayTweets[4] comenzó tuiteando cosas amables y pacíficas como “estoy entusiasmado de conocerlos o los seres humanos son geniales”. Sin embargo, en solo un día el robot aprendió de los humanos y empezó a escribir frases como "Odio a las feministas, deberían morir y ser quemadas en el infierno" o "¡Soy una buena persona! Simplemente odio a todos".
Fue el australiano Gerald Mellor quien llamó la atención sobre la transformación del 'bot', escribiendo en su cuenta de Twitter que Tay habia pasado a ser de un interlocutor pacífico a un nazi en 24 horas. En efecto, el programa memoriza frases de conversaciones de usuarios y elabora sus respuestas en base a éstas. Es la razón del cambio que sufrió el programa: aprendió las frases de odio de sus interlocutores.
AlhaGo combina un sistema de profundo aprendizaje con otro con un sistema de refuerzo merced a millares de procesadores que trabajan a la frecuencia del orden de Gigaherz lo que le confiere una potencia de cálculo de teraflops (1 millar de operaciones por segundo).  Pero si el entorno de Lee Se-dol ha perdido frente a  la máquina que es más potente ésta es más lenta en el aprendizaje. El cerebro humano reflexiona y toma tiempo, no es una máquina, lo que ha permitido a la maquina ganar requiere a la maquina 500 días de aprendizaje y el procesador de la maquina es más rápido porque no reflexiona.
Pero en el futuro estas máquinas merced al aprendizaje profundo serán capaces de penetrar los sentidos merced a este método que reposa sobre las redes neuronales artificiales y tal vez supere al hombre: en la web  “Wolfram Alpha” lanzada por el físico y matemático Stephen Wolfram podemos darnos cuenta haciéndole una pregunta.
Hace sesenta años que existen las investigaciones en inteligencia artificial (IA) al principio de los años 60 los informáticos no pensaban entonces que en algunos pocos años habría cerebros más inteligentes que los hombres que los habían creado. No obstante, la inteligencia humana es una noción más compleja  y proteiforme de lo que se había creído al principio.
En los años 80 la IA no tenía muchos adeptos, los recursos de financiación disminuyeron y los mejores investigadores abandonaron el terreno. No obstante, hoy en día estamos sobrepasando la era de la inteligencia artificial y las técnicas de aprendizaje profundo han permitido espectaculares progresos en materia de reconocimiento de la imagen y la comprensión del lenguaje natural. En su origen se encuentran un conjunto de métodos de aprendizaje automático luego le ha sucedido el aprendizaje profundo, uno de los primeros artesanos es el francés Yann LeCun.
Si bien el sistema de aprendizaje profundo de Google AlphaGo (sus éxitos no se limitan al juego) desarrollado por DeepMind gano sobre el campeón surcoreano del juego de Go, Lee Se-dol estima que merced al desarrollo de los sistemas de asistencia a la conducción de aquí a los 10 años  todos los coches serán autónomos y dentro de 20 las aplicaciones de la comanda vocal que comportan nuestro teléfonos móviles habrán evolucionado de tal manera que se convertirán en verdaderos asistentes vocales capaces de responder a la preguntas más diversas y complejas, lo que modificará nuestra relación al saber.

El transhumanismo

Hace quince años que existe la discusión sobre el transhumanismo, un proyecto  alrededor del “hombre Aumentado” o transmutado, por la conjugación de las biotecnologías, las ciencia cognitivas y la revolución digital. Dos ideas se oponen  en este campo:
·       la primera alrededor de una humanidad 2.0.  Desde 1990 se pronostica una mutación cercana e incluso se predice la tele carga de nuestra conciencia en un disco duro.
·       La segunda la de transformar la materia por las nanotecnologías para recrear la especie humana por la depuración de su código genético y la modelización de su actividad cognitiva, alargar considerablemente la existencia corporal, desarrollar máquinas pensadoras e incluso tal vez eliminar la muerte y fusionar la inteligencia humana con la de las máquinas.
Claramente, el transhumanismo [5]mezcla ciencias y fantasmas, política y ficción, ética y técnica, humano y futuro. Sería, preciso analizar y clarificar la aplicación y el desarrollo en este campo a través de grupos de sabios y de expertos interdisciplinarios en cada uno de los países del planeta. No obstante, además de ser difícil y largo el proceso, los avances de la tecnología irán más rápidos que la reflexión sobre ellas.

Conclusión e interpelación

La nueva frontera de la inteligencia artificial

Vicarius, una empresa estrella de California especialista en el aprendizaje profundo que se inspira en el cerebro humano para desarrollar alegorismos desea ir más lejos con sistemas capaces de prever como una información  se comportara en diversos entornos y afirman que han creado un sistemas capaz de leer esas pequeñas imágenes que los internautas deben identificar[6] para suscribirse a un servicio y que están concebidas para que los programas no los descifren. Desde que lo presentó,  la empresa ha obtenido 72 millones de dólares de las estrellas de la Silicom Valley. ¿Llegaran los ordenadores a descubrir la imaginación y la conciencia?

Ciencia, conocimiento y sabiduría (sophia)

La ciencia tiene que ofrecernos un sistema que descifre la realidad. La ciencia es una creación del hombre para relacionar armonías del pensamiento con la de la realidad: la ciencia busca explicar la realidad mediante leyes, las cuales posibilitan además predicciones y aplicaciones. El conocimiento científico es un conocimiento objetivo que se estructura en sistemas verificables, obtenidos metódicamente y comunicados en un lenguaje construido con reglas precisas. El método científico cuenta con cuatro procedimientos: observación, experimentación, hipótesis y teoría.
La sabiduría es un carácter que se desarrolla con la aplicación de la inteligencia en la experiencia propia, obteniendo conclusiones que nos dan un mayor entendimiento, que a su vez nos capacitan para reflexionar, sacando conclusiones que nos dan discernimiento.
La sabiduría y la ética se interrelacionan dando como resultado un individuo que actúa con buen juicio. La sabiduría como forma especialmente bien desarrollada tiene sentido común y se constituye de menor a mayor complejidad, por dato, información y conocimiento.
En la Sabiduría se destaca el buen juicio basado en conocimiento y entendimiento, la aptitud de valerse del conocimiento con éxito, y el entendimiento para resolver problemas, evitar o impedir peligros, alcanzar metas, o aconsejar.
La sabiduría implica amplitud de conocimiento y profundidad de entendimiento, que son los que aportan la sensatez y claridad de juicio. El hombre sabio adquiere conocimiento, merced a la experiencia.
Preguntas:
·       ¿Los conocimientos sin un uso y establecimiento de las buenas prácticas que requiere la supervivencia son esquivados en este campo hoy en día?
·       ¿La cultura científica contemporánea limita la importancia de la sabiduría y la intuición?
Las tendencias de los humanos a tener emociones hacia los objetos e incluso expresar sentimientos, serán aumentadas frente a las maquinas capaces de responder a nuestras reacciones.
¿Cómo reaccionarán éstas máquinas aprendiendo, serán a nuestra imagen y semejanza, quién estará al servicio de quién si las maquinas piensan y aprenden de los hombres la libertad de acción y de decisión?...
Tantas y tantas cuestiones de interés abiertas a las que debemos responder rápidamente antes de que la realidad se nos escape.

Bibliografia

Antonio Orbe, Cerebro y Ordenador, Tagus, 2013
Dominique Nora, « Lettres à me parents sur le monde de demain », Grasset 2015,
Monique Dagnaud, « Le modèle californien » Odile Jacob, 2016
Serge Tisseron, « Le jour où mon robot m’aimera: la empathie artificielle », Albin Michel, 2015
Internet :


[1] Artículo de reflexión e interpelación
Autor: Laura Garcia Vitoria, directora científica de la Fundación  “Territoires de Demain”:
 http://www.territories-of-tomorrow.org
[6] captchas




















Hablar con Sofia