sábado, 23 de febrero de 2019

Por qué tu profesor del futuro no va a ser un robot (pero sí tendrá que utilizar uno)


La pregunta sobre cómo será la educación del futuro es, a su vez, una larga sucesión de incógnitas:

¿desaparecerán las aulas tal y como las conocemos, reconvertidas en espacios más flexibles?

¿Las pantallas desterrarán para siempre al papel?

Y los profesores… ¿acabarán sustituidos por robots?

La inteligencia artificial ha llegado ya a la educación, acompañada como es habitual de afirmaciones apocalípticas.

Hace poco más de un año, el experto británico Anthony Sheldon se aventuró a pronosticar que en 2027 las máquinas inteligentes ya habrían reemplazado a los docentes.

Pero los primeros ensayos apuntan a un escenario mucho menos radical, al menos de momento.

No, los robots no van a sustituir a los profesores.

Pero sí, las clases del futuro serán una especie de tándem entre humanos y máquinas en el que cada uno de ellos se especializará en aquello que mejor sepa hacer.

La predicción de Sheldon para 2027 dibujaba un panorama inquietante.

En su visión, la tarea de transmitir el conocimiento recaería por completo en los robots, mientras que los docentes quedarían relegados a un papel de asistente (para mantener la disciplina en el aula, ayudar a los alumnos, preparar el material necesario para las clases…).

No parece un escenario factible a tan corto plazo.

Para empezar, porque la propia inteligencia artificial está todavía lejos de ser una verdadera inteligencia.

Los expertos distinguen entre dos tipos, la débil y la general o fuerte.

La primera es la que ya convive con nosotros.

Se trata de programar a la máquina para que realice tareas concretas, en rangos limitados previamente definidos: recomendarte una canción según lo que escuchas en Spotify, tramitar tus reclamaciones en el banco… o, en el caso de la educación, resolver la duda de cuándo es la fecha de un examen.

La inteligencia artificial general, por su parte, lo que persigue es dotar a la máquina de una verdadera inteligencia que funcione como la humana, es decir, que sea capaz de resolver problemas por sí misma y no en marcos previamente definidos.

De tener incluso emociones, personalidad o, por ejemplo, de dominar el lenguaje humano para ser capaz de leer las respuestas de un examen y decidir si se merecen un 4 o un 10.

Es una posibilidad aún lejana.

“Es el escenario de ciencia ficción”, asegura Guillem García Brustenga, director de tendencias del eLearn Center de la Universitat Oberta de Catalunya (UOC).

“Hablamos de décadas… aunque también es cierto que llevamos 20 años diciendo que es una cuestión de 20 años.

Eso me hace pensar que, en realidad, nadie lo sabe”.



El futuro, por lo tanto, se perfila con la forma de un binomio entre humano y máquina, en el que el profesor seguirá asumiendo la tarea esencial de transmitir conocimiento pero podrá apoyarse en la máquina para descargarse de las tareas más repetitivas y anodinas.

Ya hay numerosos ejemplos de cómo la inteligencia artificial puede aplicarse en los centros educativos para desatascar, por ejemplo, la parte administrativa y de gestión.

En la Universidad CEU Cardenal Herrera, en Valencia, están a punto de estrenar un chatbot que se va a encargar de dar respuesta a las dudas más engorrosas de los alumnos: explicar trámites, indicar horarios de tutorías, aclarar qué papeleo hay que presentar…

“Son preguntas en las que la respuesta que puede dar la universidad o el profesor tiene un valor añadido escaso, pero que los alumnos necesitan resolver con inmediatez”, señala Iñaki Bilbao, vicerrector de Relaciones Internacionales.

Este asistente inteligente ha implicado más de un año y medio de desarrollo de la universidad junto con Microsoft y Encamina, una consultora tecnológica.

El proyecto es, sin embargo, un primer paso.

El centro quiere impulsar una combinación de inteligencia artificial y big data como receta para alcanzar ese ideal que persigue la educación del siglo XXI: el aprendizaje personalizado.

Así, buscan recoger todos los datos posibles sobre cómo aprenden sus alumnos para elaborar modelos predictivos de rendimiento académico, capaces de activar alertas tempranas (por ejemplo, si un estudiante falta a clase) que permitan al centro y a los profesores poner en marcha acciones personalizadas.

Inteligencia artificial para adaptar la educación a cada estudiante, pero también para involucrarles más. “La tecnología posibilita la participación activa del alumno en clase.

Y eso conlleva que la atención del profesor sea más exhaustiva”, apunta Lorenzo Moreno, profesor de la Universidad de La Laguna, que imparte clase en un máster especializado en acercar la tecnología a los docentes.

El ejemplo de la CEU Cardenal Herrera sirve para ilustrar cómo el próximo paso de la inteligencia artificial en la educación es traspasar el ámbito de la mera gestión para introducirse de lleno en el propio proceso de aprendizaje.

“En las cuestiones administrativas o incluso de productividad hay más experiencias por la analogía que se puede establecer con los servicios de atención al cliente de cualquier empresa.

Pero los usos con intencionalidad educativa son mucho más complicados”, explica García Brustenga.

Algoritmos para aprender más

Aquí, las posibilidades son enormes.

El eLearn Center de la UOC acaba de publicar la investigación Los chatbots en educación, en el que hace recuento de cómo los asistentes inteligentes —tan solo un ejemplo de herramientas basadas en inteligencia artificial— se pueden usar con fines educativos: para acompañar al estudiante, motivarle, ayudarle a practicar habilidades concretas (aprender un idioma), simular situaciones (una consulta a un paciente), evaluar…

La propia UOC ha creado a Botter, un prototipo de robot pensado para animar a sus alumnos con el estudio, capaz incluso de mostrar decepción si el estudiante no rinde adecuadamente. Es una idea del departamento de Psicología, que quiere así investigar si este tipo de estímulos sirven para mejorar la motivación de los alumnos.

El aprendizaje de idiomas es terreno abonado para este tipo de experiencias.

Y los sistemas de reconocimiento vocal, habituales ya por ejemplo en los smartphones, son su principal herramienta. Aunque también suponen un reto.

La plataforma Lingokids, pensada para que los niños puedan aprender inglés, recurre a algoritmos para ayudar a definir el contenido y las actividades que le ofrece a cada niño, en función de su nivel de inglés y de sus gustos.

Pero se enfrenta a la dificultad de que estos sistemas de reconocimiento de voz están pensados para adultos.

“En niños no funcionan todavía muy bien.

Con la complejidad añadida de que son niños pequeños hablando una lengua que no es la materna”, explica Carlos García Prim, su director de ingeniería móvil.

En ABA English, una academia virtual de idiomas, recurrieron al prestigioso Instituto Tecnológico de Massachusetts (MIT) y a la popular Alexa —el asistente de Amazon— en un pequeño experimento: simular una conversación entre profesor y alumno para evaluar el nivel de inglés en apenas cinco minutos.

La empresa ya emplea inteligencia artificial, por ejemplo para asignar profesores reales a cada uno de sus estudiantes.

Su responsable de aprendizaje, María Perillo, asegura que lejos de sustituir a los docentes, esta tecnología les convierte en todavía más necesarios.

“El profesor tiene ahora un papel diferente del que solíamos pensar.

Muchas veces nos limitamos a recoger datos y damos por cierto el resultado de la máquina, pero es necesario tener a los expertos detrás para analizar e interpretar esos datos.

También para hacer aquello que la máquina no puede: motivar al estudiante, darle el feedback correcto...”, enumera.

“No se trata de utilizar la inteligencia artificial para todo, sino de usarla en todo”.

Esa división de tareas, junto con la imagen del docente como una suerte de entrenador de asistentes, algoritmos, sistemas de recogida de datos…, es una constante en los proyectos educativos de inteligencia artificial.

A veces incluso en terrenos insospechados.

De los más de 15.000 aspirantes que el pasado fin de semana se enfrentaron a la temida prueba del MIR para conseguir una plaza de médico residente, algunos se habían preparado para el examen con la ayuda de un algoritmo inteligente.

Tras cuatro años de desarrollo, la Editorial Médica Panamericana ha lanzado recientemente Promir, un curso online que se basa en inteligencia artificial para preparar la prueba.

Así, la herramienta es capaz de analizar en detalle a cada alumno para trazar un camino personalizado: le indica qué estudiar cada día, selecciona las preguntas y las tareas en función de aquello que más le cuesta y le ayuda a repasar lo que ya ha asimilado.

Esa es la parte en la que la máquina es imbatible.

Pero no es suficiente.

“Aplicamos la inteligencia artificial para lo que la tecnología hace bien: conocer al alumno, hacer un diagnóstico muy detallado de su perfil y guiarle en el proceso”, explica Ignacio Ferro, su director tecnológico.

“Pero hay otras tareas para las que es más eficaz que intervenga un profesional: desarrollar los contenidos, resolver las dudas, preparar al alumno psicológicamente.

Para eso hay tutores especializados”.

Pero como en todo escenario que se mueve entre un presente comprensible y un futuro casi de ciencia ficción, surgen los interrogantes éticos.

El informe de la UOC destaca una pregunta: ¿cuál es el objetivo final de la máquina?

Si se trata de que el alumno aprenda más, señalan los investigadores, el riesgo es que la inteligencia artificial plantee retos demasiado difíciles que conduzcan al suspenso.

Si la finalidad es que apruebe, puede fijar estándares demasiado fáciles de manera que el alumno finalmente no aprenda.

Y si el objetivo es aumentar las matriculaciones, ya entra el juego el debate sobre si la tecnología es un medio para mejorar el aprendizaje o un fin en sí mismo para, por ejemplo, utilizar como herramienta de marketing.

“Tendremos que llegar a un compromiso, incluso a nivel social, sobre qué es lo que queremos de todo esto”, resume Guillem García Brustenga.

Escrito por
Bárbara Sánchez
En colaboración con EL PAÍS.
Las opiniones expresadas en este artículo son las del autor y no del Foro Económico Mundial.

weforum.org


viernes, 25 de mayo de 2018

Así será el primer hotel espacial



Este es el período en el que, los que pueden, comienzan a pensar en las vacaciones.

El momento de perderse entre las reservas de hoteles, apartamentos, vuelos y trenes.

Sin embargo, si uno fuera particularmente precavido, ya podría programar las vacaciones de 2022.

Ese será precisamente el año en el que, en teoría, abrirá el primer hotel espacial de la historia.

Las reservas ya han comenzado.

El alojamiento espacial será a bordo de la Aurora Station, de la compañía estadounidense Orion Span.

Será una suite de lujo, que ofrecerá a sus huéspedes una auténtica experiencia de astronauta.

Para irse de vacaciones al espacio, habrá que ahorrar ‘solo’ 9,5 millones de dólares.

Alrededor de 791.666 dólares la noche.

Sin embargo, de momento, bastarán 80.000 dólares como fianza para llevar a cabo la reserva.

La cifra sería totalmente reembolsada si la misión fallara antes de tiempo.

Un hotel espacial para unas vacaciones de ensueño



El hotel estará en órbita a 320 kilómetros de la Tierra.

Desde las ventanas de la suite, se verá un promedio de 16 amaneceres y puestas de sol cada 24 horas, con una vuelta completa al mundo cada 90 minutos.

Una experiencia extraordinaria, a la que se añade la posibilidad de experimentar la gravedad cero. Además, también será posible contribuir a la investigación científica.

La Aurora Station es un espacio de 10 por 4,2 metros, diseñado para acomodar hasta seis personas a la vez.

Uno o más de estos invitados serán astronautas profesionales de agencias espaciales de todo el mundo.

En resumen, será más o menos como alquilar un barco con marinero para recorrer las islas griegas. Aquí, también, lo más importante será llevarse bien con los compañeros de viaje.

“Queremos llevar a la gente al espacio porque es la última frontera de nuestra civilización”, explicó el fundador de la compañía, Frank Bunger.

Aurora Station conducirá a los viajeros al espacio más rápidamente y a un precio más bajo de lo habitual, garantizando una experiencia inolvidable.

La compañía también ha desarrollado un régimen de entrenamiento de tan solo tres meses, en lugar de los 24 que normalmente sirven para preparar a un astronauta.



Experimentos y fiestas con hologramas

El entrenamiento se realizará directamente en Houston (Texas, Estados Unidos), desde donde saldrán las cápsulas espaciales para turistas.

A los clientes se les proporcionarán conocimientos básicos sobre vuelo espacial, mecánica orbital y vida en ambientes presurizados.

La compañía asegura que los viajeros “disfrutarán de la euforia de la gravedad cero, admirarán la aurora al norte y al sur a través de muchas ventanas.

Sobrevolarán sus ciudades y participarán en experimentos como el cultivo de alimentos en órbita, con la posibilidad de llevarlos a casa como recuerdo”.

A bordo también será posible organizar ‘fiestas’ dentro de un módulo de realidad virtual llamado holodeck.

Es una tecnología presente también en el universo de ‘Star Trek’, que permite interactuar con hologramas de dinosaurios o reproducir viajes dentro del sistema solar.

Finalmente, los pasajeros podrán mantener un contacto directo con sus seres queridos, gracias a un acceso inalámbrico a internet de alta velocidad.

La carrera al espacio privado

En los últimos años, han aumentado exponencialmente las empresas que, tras el éxito de compañías como SpaceX, han apostando por los vuelos espaciales comerciales.

Un grupo de jóvenes estudiantes del MIT tuvieron una idea muy similar, que todavía no ha sido realizada.

Se llama Marina (Managed reconfigurable in-space nodal assembly). un pequeño puerto espacial donde atracar módulos privados con habitaciones y vistas impresionantes de nuestro planeta.

La NASA lo premió como mejor proyecto presentado por una universidad.

Marina cuenta con ocho habitaciones con bar, restaurante y gimnasio.

Nada que ya no tenga un normal hotel terrestre.

Pero los estudiantes de MIT también imaginaron Marina como puerto y punto de partida para otros viajes a Marte.

Otro sonado proyecto de hotel espacial fue el Galactic Suite.

Tenía que ser inaugurado en 2012.

Para lograrlo, el multimillonario Dennis Tito empezó a coger reservas en 2008.

En ese caso, el coste era de 3 millones de dólares por cuatro noches.

Sin embargo, nunca despegó y desde 2014 el sitio web de la compañía no se ha actualizado.

Orion Span responde así a una necesidad cada vez mayor de privatización del espacio:

“La Nasa recibe alrededor de 18.000 solicitudes al año de aspirantes a astronautas“, explica Frank Bunger.

“Hay un mercado para personas que quieren entender qué se siente al viajar en el espacio”.

Sin embargo, quedan muchos obstáculos técnicos y científicos a la puesta en órbita de este hotel espacial.

Según algunos, el plazo de cuatro años para su realización es demasiado ambicioso.

Sin duda, sería mejor llegar a la inauguración preparados y con todo listo que recibir malas críticas en TripAdvisor.

En colaboración con nobbot.
weforum.org



martes, 17 de abril de 2018

Una IA se presenta por primera vez a alcalde en un distrito de Tokio (y promete justicia para todos)


Image: La IA candidata (Otaquest)

Que una Inteligencia Artificial se presente a unas elecciones a la alcaldía parece más propio del cine o la literatura que de la realidad, pero es precisamente lo que ha ocurrido en Tama, un distrito de Tokio.

Allí, entre el resto de candidatos humanos, se ha presentado un robot.

Tal y como cuentan desde Otaquest, la zona está repleta de carteles que muestran los rostros de los líderes de los partidos con lemas que prometen cambios para la ciudad.

Y en la misma línea de propaganda electoral, el candidato robot, apodado Michihito Matsuda, ha aparecido en furgonetas, carteles e incluso fragmentos de audio inspiradores.


Image: Twitter

Si tuviéramos que buscarle un parecido homónimo humano, se diría que estamos ante una candidata de aspecto futurista con rasgos femeninos y un cuerpo totalmente plateado.

En un intento por ofrecer “oportunidades justas y equilibradas para todos”, el robot se compromete a analizar las peticiones presentadas al consejo, desglosando estadísticamente los aspectos positivos y negativos de su efecto.

No sólo eso, Matsuda también afirma que puede captar el diálogo y los deseos de los residentes antes de calcular el mejor rumbo de acción. Finalmente, esta IA candidata afirma comprometerse racionalmente si surgen conflictos entre los residentes.


Image: Twitter

En realidad, mientras que el robot encabeza la aspiración de convertirse en el primer alcalde en forma de inteligencia artificial, la campaña está controlada por dos gurús de la tecnología,

Tetsuzo Matsuda y Norio Murakami. Matsumoto es el vicepresidente del proveedor de servicios móviles Softbank, mientras que Murakami es un ex empleado de Google Japón.

De hecho, ambos han diseñado un sitio web de campaña para Matsuda, el robot.

Matsuda, la IA, incluso se ha atrevido con un discurso apasionado sobre su visión política inusual para el vasto desarrollo de viviendas que se construyó en la década de 1960 y que es el más grande de Japón:

Tama New Town fue la ciudad más avanzada de Japón hace 40 años. 
Tal como está, la población que envejece seguirá creciendo, lo que provocará la necesidad de un cambio en la actual administración. 
Dejemos que la inteligencia artificial determine las políticas recopilando datos de la ciudad y podremos crear políticas claramente definidas.

Como explican Matsuda y Murakami, el futuro pasa por algoritmos capaces de analizar los deseos y las peticiones de la población, satisfaciendo necesidades y resolviendo conflictos como ya lo hace su sistema,“la IA lo cambiará todo es solo cuestión de tiempo.

Podremos desarrollar políticas imparciales y equilibradas. Implementaremos medidas rápidamente, acumulando información y liderando la próxima generación”.

[Otaquest]

Miguel Jorge
私たちは、ギズモードが大好き
gizmodo.com

martes, 2 de enero de 2018

Esto es lo que sucederá dentro de diez mil años, según la ciencia


Venimos del futuro lejano.

Imaginar el futuro de la humanidad, nuestro planeta y todo lo que apreciamos en nuestro rincón del Universo frío y oscuro suele ser el dominio de la ciencia ficción, y por lo general solo nos preocupan los próximos cientos de años en el mejor de los casos.

Pero, ¿qué hay de miles y miles de años a partir de ahora?

¿Qué pasará entonces?

Resulta que gracias a varias herramientas de la ciencia, algunas cosas en un futuro lejano pueden predecirse con sorprendente precisión.

Con base en lo que sabemos sobre la vida, el Universo y todo, algunas predicciones científicas en campos como la astrofísica y la evolución en realidad pueden llegar a cientos de miles de años antes de nuestro tiempo.

Puede encontrar varias líneas de tiempo fascinantes y lejanas en Wikipedia, incluida una que se basa mucho en la ciencia ficción y la ficción popular.

Pero echemos un vistazo a lo que la ciencia dice que sucederá en el más cercano de estos futuros lejanos: aproximadamente 10.000 años a partir de ahora.

Para empezar, en ese punto toda la Antártida oriental ya no existirá.

Es la capa de hielo continua más larga de nuestro planeta, y el modelado predice que si la cuenca subglacial de Wilkes se derrumba, el bloque de hielo gigante tardará entre 5.000 y 10.000 años en disiparse en el mar, elevando los niveles de agua en 3-4 metros ( 10-13 pies).

Sin embargo, existe la posibilidad de que no tengamos ningún ser humano de por medio para tener que lidiar con todo ese agua marina en ascenso.

Según una estimación llamada el argumento del Día del Juicio Final, según lo propuesto por el físico teórico australiano Brandon Carter, hay un 95 por ciento de posibilidades de que los humanos se hayan extinguido en 10,000 años.

Ese argumento ha sido muy debatido, por lo que no estamos del todo seguros de si habrá personas presentes o no.

Pero si lo son, en 10,000 años no habrá variación genética regional entre humanos.

Eso no quiere decir que todas las personas se verán igual, pero las diferencias genéticas que existan, como los ojos azules y el marrón, se distribuirán uniformemente en todo el planeta.

Y aquellas personas que se mezclan uniformemente, con costas muy diferentes de las que conocemos hoy en día, y con un calendario gregoriano 10 días fuera de sincronización con la posición del Sol, también pueden ser tratados con una espectacular explosión estelar.

Se predice que en los próximos 10.000 años se espera que la estrella supergigante roja Antares estalle en una supernova tan brillante que será visible a plena luz del día.

(Antares podría estallar en cualquier momento, así que estamos esperando que suceda más pronto que tarde, así que podemos verlo en nuestros cielos en lugar de nuestros descendientes hipotéticos y posiblemente extintos).

Ah, y por cierto, si estiramos esa ventana de tiempo a tan solo 13,000 años, la inclinación axial de la Tierra se invertirá, cambiando las estaciones entre los hemisferios.

Ahora eso sería confuso para vivir.

Pero independientemente de si los humanos alcanzan la marca de 10,000 años o no, las sondas espaciales Pioneer 10 y 11, Voyager 1 y 2, y New Horizons probablemente seguirán navegando entre las estrellas no solo por miles, sino por millones de personas. años.

De hecho, si entrecerramos los ojos y miramos un poco más hacia el futuro, dentro de 296,000 años el Voyager 2 realmente pasará a una distancia de escupir, en términos estelares, de Sirius, la estrella más brillante en nuestro cielo.

Todas estas predicciones solo se refieren a los momentos más cercanos en lo que se conoce como el futuro lejano, y ya nos sentimos bastante mareados.

Pero si desea sondear estas líneas de tiempo aún más, puede dirigirse a la línea de tiempo completa de Wikipedia aquí.

Un divertido spoiler antes de ir: llevará 1 millón de años hasta que la huella de Neil Armstrong en la Luna se haya erosionado.

SIGNE DEAN

sciencealert.com



martes, 15 de marzo de 2016

Todo lo que conoces sobre la inteligencia artificial es incorrecto

Todo lo que conoces sobre la inteligencia artificial es incorrecto

Las tres leyes de la robótica de Isaac Asimov no van a ser suficientes para controlar la IA. 
Los robots del amanecer / Michael Whalen

Fue recibida como la noticia más importante de la inteligencia artificial desde que Deep Blue derrotara a Gari Kaspárov al ajedrez hace casi 20 años.

Google AlphaGo ha ganado tres de los cuatro primeros partidos contra el maestro Lee Sedol en un torneo de Go, lo que demuestra la espectacular mejora de la IA.

Nunca antes nos había parecido tan cercano ese fatídico día en el que las máquinas se volverán más inteligentes que los humanos, y sin embargo no llegamos a comprender las implicaciones de este acontecimiento que marcará una época.

De hecho tenemos arraigada una serie de errores de concepto serios (e incluso peligrosos) sobre la inteligencia artificial.

Elon Musk, el cofundador de SpaceX, nos advirtió hace unos meses de que la IA podría acabar tomando el mundo —lo que provocó un aluvión de comentarios tanto de condena como de apoyo.

Para tratarse de un evento futuro tan monumental, existe una sorprendente cantidad de desacuerdo sobre si sucederá o no, o qué forma adquirirá.

Esto es especialmente preocupante si tenemos en cuenta los enormes beneficios que obtenemos de la IA y los posibles riesgos.

A diferencia de cualquier otra invención humana, la IA tiene el potencial de cambiar la forma de la humanidad, pero también de destruirnos.

Es difícil saber qué creer.

Sin embargo, empieza a surgir una imagen más clara gracias al trabajo pionero de los científicos de la computación, los neurocientíficos y los teóricos de la IA.

Estos son los conceptos erróneos y los mitos más comunes sobre la IA.

Mito: “Nunca crearemos una IA con inteligencia similar a la humana”

Todo lo que conoces sobre la inteligencia artificial es incorrecto

El maestro de Go Lee Sedol perdió tres juegos seguidos contra AlphaGo en un histórico DeepMind Challenge. Imagen: Getty

Realidad: Ya tenemos máquinas que igualan o superan la capacidad humana en juegos como el ajedrez o el Go, en la compraventa del mercado de valores y en las conversaciones.

Los ordenadores y los algoritmos que los impulsan sólo pueden mejorar, y será cuestión de tiempo que estas máquinas destaquen en cualquier actividad humana.

Gary Marcus, psicólogo de investigación en la Universidad de Nueva York, dijo que “prácticamente todos” los que trabajan en IA creen que las máquinas nos superarán algún día.

“La única diferencia entre los entusiastas y los escépticos es el marco de tiempo”.

Futuristas como Ray Kurzweil dicen que podría ocurrir dentro de un par de décadas, mientras que otros creen que podría llevar siglos.

Los escépticos de la IA no resultan convincentes cuando dicen que es un problema tecnológico sin solución y que hay algo intrínsecamente único en los cerebros biológicos.

Nuestros cerebros son máquinas biológicas, pero son máquinas al fin y al cabo; existen en el mundo real y se adhieren a las leyes básicas de la física.

No hay nada que sea imposible de conocer sobre ellos.

Mito: “La inteligencia artificial tendrá conciencia”

Todo lo que conoces sobre la inteligencia artificial es incorrecto

En Humans, la serie de televisión de AMC, algunas de las inteligencias artificiales tienen conciencia. Imagen: AMC


Realidad: Una suposición común en torno a la inteligencia artificial es que va a adquirir conciencia, es decir, que acabarán pensando como lo hacemos los humanos.

Es más, críticos como Paul Allen, cofundador de Microsoft, creen que aún nos queda por lograr una Inteligencia Artificial Fuerte (o AGI) que sea capaz de realizar cualquier tarea intelectual que un ser humano puede hacer porque carecemos de una teoría científica de la conciencia.

Pero, como señala Murray Shanahan, ingeniero de robótica cognitiva del Imperial College de Londres, debemos evitar confundir estos dos conceptos.

“La conciencia es sin duda un tema fascinante e importante, pero no creo que sea necesaria para una inteligencia artificial de nivel humano” explica Shanahan a Gizmodo.

“Para ser más precisos, utilizamos la palabra conciencia para referirnos a una serie de atributos psicológicos y cognitivos que vienen incluidos en los seres humanos”.

Es posible imaginar una máquina muy inteligente que carezca de algunos de estos atributos.

Con el tiempo, podemos construir una IA que sea extremadamente inteligente, pero incapaz de experimentar el mundo de una manera consciente de sí misma, subjetiva. Murray Shanahan mencionó que podría ser posible acoplar tanto la inteligencia como la conciencia en una máquina, pero que no debemos perder de vista el hecho de que son dos conceptos distintos.

Aunque una máquina pase el test de Turing —en el que un ordenador se vuelve indistinguible de un ser humano—, eso no quiere decir que sea consciente.

Para nosotros, una IA avanzada puede dar la sensación de conciencia, pero no será más consciente de sí misma que una piedra o una calculadora.

Mito: “No debemos temer a la IA”

Realidad: En enero, Mark Zuckerberg, el fundador de Facebook, dijo que no debíamos temer a la IA porque hará una cantidad increíble de cosas buenas para mejorar el mundo.

Tiene razón a medias: estamos posicionados para obtener enormes beneficios de la IA —desde los coches autónomos hasta la creación de nuevos medicamentos—, pero no hay garantías de que todas las instancias de la IA serán benignas.

Un sistema altamente inteligente podría saberlo todo acerca de una tarea determinada, como por ejemplo resolver un problema financiero o hackear un sistema enemigo, pero fuera de estos ámbitos especializados ser ignorante e inconsciente.

El sistema DeepMind de Google es competente en el Go, pero no tiene capacidad o raciocinio para investigar fuera de este dominio.

Todo lo que conoces sobre la inteligencia artificial es incorrecto

El virus Flame virus se utiliza para el ciberespionaje en países de Oriente Medio. 
Imagen: Wired

Muchos de estos sistemas podrían no estar desarrollados siguiendo las consideraciones de seguridad.

Un buen ejemplo es el virus Stuxnet, un gusano desarrollado por los militares de Estados Unidos e Israel para infiltrarse y atacar las plantas nucleares iraníes. De alguna manera (ya sea deliberada o accidental), este malware acabó infectando una planta de energía nuclear de Rusia.

También está Flame, un programa utilizado para el ciberespionaje en Oriente Medio.

Es fácil imaginar cómo las futuras versiones de Stuxnet o Flame podrían propagarse más allá de sus objetivos e infligir incontables daños en infraestructuras sensibles.

Mito: “La súper IA será demasiado inteligente como para cometer errores”

Todo lo que conoces sobre la inteligencia artificial es incorrecto

Superordenador en The Invisible Boy (1957)

Realidad: Richard Loosemore, matemático del Wells College, cree que los escenarios del Día del juicio final provocados por una inteligencia artificial son imposibles. Su razonamiento es que una IA lo bastante sofisticada será capaz de detectar fallos en su propio diseño y modificarse a sí misma para ser segura.

Desafortunadamente, seguirá trabajando para el propósito por el que fue creada.

Peter McIntyre y Stuart Armstrong, ambos del Instituto para el Futuro de la Humanidad en la Universidad de Oxford, no están de acuerdo. Ambos creen que una IA sí que es capaz de cometer errores o simplemente puede ser demasiado necia como para saber lo que se espera de ella.

“Por definición, una superinteligencia artificial (SIA) es un agente con un intelecto muy superior al de los mejores cerebros humanos en prácticamente cualquier campo”, escribe McIntyre a Gizmodo.

“Sabrá exactamente lo que esperamos de ella”.

McIntyre y Armstrong creen que una IA sólo llevará a cabo aquellas funciones para las que está programada, pero si se vuelve lo bastante inteligente, podría ser capaz de deducir en qué difieren esas acciones del espíritu de la ley o de la intención de los seres humanos que la crearon.

McIntyre compara el futuro de los seres humanos con el de los ratones.

Un ratón tiene el impulso de comer y buscar refugio, pero ese impulso a menudo entra en conflicto con los humanos, que quieren una morada libre de ratones.

“Al igual que nosotros somos lo bastante inteligentes como para entender las metas de los ratones, un sistema superinteligente podría saber qué es lo que queremos y que al mismo tiempo le dé completamente igual”.

Mito: “Un simple parche solucionará el problema de controlar la IA”

Todo lo que conoces sobre la inteligencia artificial es incorrecto

Cómo veíamos en Ex Machina, va a ser muy difícil contener sistemas de Ia más inteligentes que nosotros.

Realidad: Asumiendo que podamos crear una IA más inteligente que nosotros, aún tendremos un reto muy serio conocico como “Problema del control”.

Los futurólogos y teóricos de la IA no logran explicar cómo seremos capaces de contener y controlar una SIA una vez exista, o cómo lograr que sea amistosa con los seres humanos.

Recientemente, investigadores del Instituto Tecnológico de California sugirieron inocentemente que una IA podría aprender los valores y convenciones sociales de los seres humanos simplemente leyendo cuentos.

Probablemente será mucho más complicado que eso.

“Se han propuesto muchos trucos sencillos que solucionarían el problema del control de la IA”, explica Armstrong.

Algunos ejemplos incluyen programar la SIA de manera que tenga el impulso de satisfacer a los seres humanos, o que funcione única y exclusivamente como una herramienta.

También podríamos integrar en su programación conceptos como el amor o el respeto.

Para prevenir que la IA tenga una visión del mundo demasiado simplista, podría ser programada para apreciar la diversidad intelectual, cultural y social.

Todo lo que conoces sobre la inteligencia artificial es incorrecto

Las tres leyes de la robótica son un estupendo tema de ciencia-ficción, pero vamos a necesitar algo más sustancioso para solucionar el problema del control. 
Imagen: Nova.

Sin embargo, estas soluciones son demasiado simples.

Tratan de encajar toda la complejidad de los gustos y disgustos humanos en una única definición cómoda.

Intentan reducir todas las complejidades de los valores humanos en una única palabra, frase o idea. Basta con pensar en la increíble dificultad de establecer una definición coherente y práctica de términos como “respeto”.

“Eso no significa que esos parches o trucos sean completamente inútiles.

Muchas de ellas sugieren líneas de investigación muy interesantes y pueden contribuir a dar con la solución definitiva”, asegura Armstrong.

“Pero no podemos confiar en su eficacia sin trabajarlos mucho más y explorar todas sus implicaciones”.

Mito: “Seremos destruidos por una superinteligencia artificial”

Todo lo que conoces sobre la inteligencia artificial es incorrecto

Imagen: Matrix: Revolutions


Realidad: No hay ninguna certeza de que una IA vaya a destruirnos ni de que finalmente encontremos métodos para contenerla y controlarla.

El teórico de la inteligencia artificial Eliezer Yudkowsky dice:

“La IA no te odia ni te ama, pero estás hecho de átomos que puede usar con otros propósitos”.

En su libro: Superintelligence: Paths, Dangers, Strategies, el filósofo de la Universidad de Oxford Nick Bostrom escribe que una superinteligencia artificial, una vez terminada, puede suponer un peligro mayor para el ser humano que cualquier otro invento.

Pensadores tan prominentes como Elon Musk, Bill Gates, o Stephen Hawking (el cual ya ha advertido que la IA puede ser el peor error de nuestra historia) también han dado la voz de alarma.

McIntyre explica que, en la mayor parte de metas que una superinteligencia artificial pueda tener, hay buenas razones para eliminar a los humanos de la ecuación.

“Una IA puede llegar a la conclusión (bastante correcta) de que no queremos que maximice el beneficio de una compañía por encima de los consumidores, el medio ambiente o los animales”, dice McIntyre.

“En ese momento, la IA tiene un ben incentivo para asegurarse de que los humanos no la interrumpen o interfieren con su objetivo, incluyendo que la apaguemos o que queramos cambiar sus metas”.

A menos que los objetivos de una SIA se correspondan exactamente con los nuestros, McIntyre explica que el sistema tendría buenas razones para no darnos la opción de detenerla, y teniendo en cuenta que su inteligencia supera ampliamente la nuestra, no tenemos mucho que hacer.

Pero no hay nada garantizado. Nadie puede saber con seguridad qué forma tomará la Inteligencia Artificial, ni como podría poner en riesgo a la humanidad.

Como Musk ya ha señalado, la IA puede usarse para controlar, regular o monitorizar otras IA, o podríamos dotarlas de valores humanos o con la imposición de ser amistosa con nosotros.

Mito: “La superinteligencia artificial será amistosa”

Todo lo que conoces sobre la inteligencia artificial es incorrecto

Imagen: ST:TNG

Realidad: el filósofo Immanuel Kant creía con firmeza que la inteligencia se correlacionaba con la moralidad.

En su ensayo “Singularidad: un análisis filosófico”, el neurocirujano David Chalmers tomó la famosa idea de Kant y la aplicó al auge de la superinteligencia artificial.

Si esto es correcto... Podemos esperar que una explosión de la inteligencia artificial conduzca también a una explosión de la moral.

Podemos esperar que los sistemas (superinteligentes) serán supermorales además de superinteligentes, así que podemos asumir que serán benignos.

La idea, sin embargo, de que la inteligencia artificial avanzada estará “iluminada” intelectualmente y será inherentemente buena no acaba de concordar.

Como Armstrong indicaba, hay muchos criminales de guerra inteligentes.

Una relación entre la inteligencia y la moralidad no parece existir entre los humanos, así que cuestiona la asunción directa de que también aparecerá en otras formas de inteligencia.

“Los humanos muy inteligentes que se comportan de manera inmoral tienden a causar dolor en una escala muchísimo mayor que sus pares menos inteligentes” afirma.

“La inteligencia simplemente les proporciona la habilidad de ser malos de manera más inteligente, no de transformarse en buenas personas”.

Como McIntyre explica, la habilidad de un agente de conseguir un objetivo no tiene que ver con si es un objetivo inteligente o no para empezar.

“Tendríamos que ser muy afortunados para que nuestros sistemas de inteligencia artificial estuviesen dotados de manera única con la capacidad de crecer de manera moral al tiempo que crecen intelectualmente.

Confiar en la suerte no es la mejor de las políticas para algo que podría determinar nuestro futuro”.

Mito: “Los riesgos de la IA y la robótica son los mismos”

Todo lo que conoces sobre la inteligencia artificial es incorrecto

imagen: Terminator

Realidad: Este error es particularmente común (buenos ejemplos aquí y aquí), uno perpetuado por películas de Hollywood poco rigurosas como Terminator.

Si una superinteligencia artificial como Skynet de verdad quisiese destruir la humanidad, no usaría una serie de androides equipados con metralletas.

En su lugar utilizaría medidas más eficientes como, por ejemplo, liberar una plaga biológica o instigar una plaga autorreplicante de nanobots.

O podría, sin más, destruir la atmósfera.

La Inteligencia Artificial es potencialmente peligrosa no por lo que implica para el futuro de la robótica sino por cómo podría invocar su presencia y devastar el mundo.

Mito: “La IA en la ciencia ficción describe con fidelidad cómo será en el futuro”

Todo lo que conoces sobre la inteligencia artificial es incorrecto

Tipos de mentes. Imagen: Eliezer Yudkowsky/MIRI

Realidad: Sí, la ciencia ficción ha sido usada por autores y futuristas para hacer predicciones durante años, pero el horizonte que dibuja la posible presencia de una superinteligencia es más oscuro.

Es más, la naturaleza no humana de la IA hace que sea imposible para nosotros saber, y por tanto predecir, su forma y características.

Para que la ciencia-ficción nos entretenga como humanos, la mayoría de IAs necesitan ser similares a nosotros.

“Hay todo un espectro de mentes fascinante, incluso dentro de los seres humanos.

Eres diferente a tu vecino. Esta variación, con todo, no es nada comparado con todas las mentes diferentes posibles que pueden llegar a existir” amplía McIntyre.

La mayoría de ciencia-ficción existe porque necesita contar una historia con fuerza, no para ser científicamente correctas. Por tanto, el conflicto en la ciencia ficción tiende a estar entre entidades que rara vez son equiparadas.

“Imagina cómo de aburrida sería una historia” dice Armstrong “donde una IA sin conciencia, felicidad u odio elimina a todos los humanos sin ningún tipo de resistencia para conseguir un objetivo que es, de por sí, poco interesante”.

Mito: “Es terrible que las IAs acaben por robarle el trabajo a humanos”

Realidad: La capacidad de la IA de automatizar muchas de las cosas que hacemos por un lado y su potencial de destruir la humanidad, por otro, son cosas muy diferentes.

Según Martín Ford, autor de Rise of the Robots: Technology and the Threat of a Jobless Future, a menudo están mezclados y confundidos.

Es correcto pensar en un futuro lejano y en las implicaciones que sobre él puede tener la IA, pero sólo si no nos distrae de los problemas a los que tendremos que enfrentarnos en las siguientes décadas.

El más importante de ellos es la automatización en masa.

No hay duda de que la inteligencia artificial está destinada a eliminar y reemplazar mucho de los trabajos actuales, desde el trabajo en fábricas a otros más sofisticados.

Todo lo que conoces sobre la inteligencia artificial es incorrecto

Algunos expertos predicen (PDF) que la mitad de los trabajos en Estados Unidos son susceptibles de ser automatizados en el futuro.

La cuestión es que nada de esto implica que seremos incapaces de manejar la disrupción que supondrá. Está claro que eliminar mucha de nuestra carga de trabajo, tanto física como mental, es un objetivo casi utópico para nuestra especie.

“Durante las siguientes dos décadas la IA va a destruir muchos trabajos, pero eso es algo bueno” Miller explica a Gizmodo.

Camiones autónomos podrían reemplazar a los transportistas, por ejemplo, lo cual abarataría los bienes provocando que fuese más barato comprar bienes “Si eres un conductor de camiones, está claro que pierdes, pero todos los demás ganan porque pueden comprar más con lo mismo.

Ese dinero de los que sí ganan se podrá gastar en otros bienes y servicios que generarán nuevos trabajos para más humanos”.

Con toda probabilidad, la inteligencia artificial producirá nuevos modos de creación de riqueza, al tiempo que liberan a los humanos para realizar otras cosas.

Y los avances en la IA estarán acompañados de otros en diferentes áreas, sobre todo en fabricación.

En el futuro será más sencillo, y no más difícil, satisfacer nuestras necesidades básicas.

George Dvorsky
gizmodo.com

lunes, 15 de febrero de 2016

Así será la vida dentro de 100 años


¿'Rascacielos' subterráneos y comida imprimible?

El cambio en las condiciones de vida y el desarrollo de la tecnología cambiarán drásticamente el mundo.

Un grupo de científicos de la Universidad de Westminster (Reino Unido) ha llegado a la conclusión de que el estilo de vida actual cambiará radicalmente en los próximos 100 años.

Los arquitectos de la empresa SmartThings prepararon un informe que concluye que dentro de tan solo cien años la humanidad comenzará a utilizar rascacielos de 25 plantas bajo tierra, según publica 'The Independent'.

Asimismo, los científicos predicen la aparición de tecnologías de construcción rápida que permitan instalarse en edificios bajo el agua, así como el desarrollo de aviones no tripulados, que se convertirán en el principal tipo de transporte de personas y mercancías.

El informe también sugiere un uso extendido de las impresoras 3D con diversas aplicaciones.

En este contexto, los autores creen que en 2116 estas impresoras se utilizarán para producir desde muebles hasta casas y otras infraestructuras.

Además, las impresoras 3D se usarán para preparar alimentos 'descargables' a través de Internet.

"Nuestro modo de vida actual le parecería ciencia ficción a una persona de hace cien años.

Internet ha revolucionado la esencia de nuestra comunicación, el aprendizaje y la interacción con el mundo", afirma una de las autoras del estudio, Maggie Aderin.

Además del cambio en las condiciones de vida, el desarrollo de la tecnología y los vuelos espaciales comerciales conducirán inevitablemente a la colonización de la Luna y de Marte, concluye el informe.

politicadigital.com.ar

jueves, 14 de enero de 2016

Luc Steels: “La inteligencia artificial puede ayudar a frenar el cambio climático”

Luc Steels: “La inteligencia artificial puede ayudar a frenar el cambio climático”

Luc Steels, profesor de investigación Icrea en el Instituto de Biología Evolutiva (UPF-CSIC) (Michael Huebner _von_BILD_ .)

El experto en ciencias de la computación, creador del perro robot Aibo, habla del futuro de esta tecnología, que es “el futuro de la humanidad”

Conforme se acerca la hora, en el vestíbulo de entrada del CCCB ya no cabe ni un alfiler. Muchos de los asistentes se han pasado antes por la exposición +Humanos y se acercan a la charla con mil dudas e inquietudes: ¿en el futuro los robots se encargarán de cuidar a nuestros hijos ?

¿Ampliaremos nuestras capacidades con implantes robóticos? ¿Cuáles son los límites éticos de la inteligencia artificial? ¿Habrá ejércitos formados solo por robots humanoides? Y así, una ristra interminable.

Para intentar contestarles, Luc Steel, experto en inteligencia artificial. Profesor de investigación Icrea, es el creador del popular perrito robot Aibo, de Sony, y ahora desde su despacho en el Instituto de Biología Evolutiva (CSIC-UPF) en Barcelona, colabora con otros centros repartidos por el mundo con el objetivo de tratar de dotar de inteligencia a las máquinas para que algún día puedan llegar a convivir con nosotros de verdad.

Steels participa en un ciclo de conferencias, “Máquinas que piensan: posibilidades y dilemas de la inteligencia artificial”, organizado por Icrea y el CCCB.

Antes de comenzar Steels matiza: “Esto no va del futuro de la inteligencia artificial, sino del de la humanidad”, y tras una pausa lanza al público: “¿Qué futuro queremos tener los humanos?”.

${imageCaption}


En el futuro que nos presenta la ciencia ficción e incluso algunas compañías fabricantes de robots, la inteligencia artificial nos ayudará a cuidar a los bebés e incluso a las personas mayores.

Espero que ese no sea el futuro que nos espera, sinceramente.

¿Qué sentido tiene tener un bebé si no lo cuidas tú mismo, si no disfrutas de pasar tiempo con él, de verlo crecer, de jugar, interaccionar?

Y lo mismo ocurre con la gente mayor.

Es cierto que la población está cada vez más envejecida y que en algunos casos los hijos están lejos y los ancianos están solos, pero aún así me parece un mal camino a seguir por la sociedad si relega el cuidado de los mayores a máquinas.

Hay que enfatizar una aproximación a la tecnología orientada a los humanos, a nuestra sociedad.

¿Cómo?

Existe demasiada presión para que usemos la última tecnología, para automatizar todos los procesos, para trabajar a través de internet, comunicarnos a través de internet.

Ahora los niños se sientan delante de una pantalla todo el tiempo. Debemos controlar la exposición que tenemos a la tecnología.

¿Tendremos compañeros robots amigos, como los que aparecen en Star Wars, por ejemplo?

Es fantástico soñar con mundos como los que propone la ciencia ficción.

Pero no deja de ser eso, sueños, y en el fondo son una forma de pensar en nosotros mismos, de reflexionar sobre nuestra sociedad.

Los niños pueden jugar con un perro robot, con Aibo por ejemplo, y está bien, porque saben que no es de verdad, como cuando juegan con un muñeco.

Y aún así, sabiendo que no son reales, pueden tenerle cariño. Ahora bien, los humanos vivimos a través de las emociones, somos capaces de sentir el dolor, la alegría, el sufrimiento, la tristeza de otros.

El problema de que la tecnología llegue a ser dominante es que haremos todo a través de máquinas, sin contacto humano. Y eso puede ser peligroso.

${imageCaption}

Póngame un ejemplo.

Paypal. Esta compañía usa inteligencia artificial para detectar fraude en operaciones que realizan los usuarios.

Es un software muy bueno pero el problema es que la inteligencia artificial no es super inteligente, no es mejor que un humano.

Lo que hace simplemente es revisar un montón de cosas e intentar detectar un patrón.

Al final, acaba señalando a muchas personas que no han cometido ninguna acción fraudulenta y los penaliza porque el programa cree que sí la han cometido.

Y entonces resulta muy complicado como usuario quejarte y evitar la penalización.

Además, la inteligencia artificial no es capaz de entender los significados. Busca entre grandes cantidades de información sin tener ni idea de lo que significa aquello que lee.

En la ciencia ficción se nos presenta a la inteligencia artificial con emociones.

Las máquinas pueden pretender tener emociones.

Las puedes programar para que sean capaces de detectar expresiones faciales, ciertas entonaciones, gestos, movimientos corporales y así interpretar que cuando eso se da la persona está contenta o enfadada.

El programa aprende a generalizar. Pero eso no es tener una emoción.

${imageCaption}

¿Qué podemos esperar de la inteligencia artificial?

Que nos ayude a manejar e interpretar ingentes cantidades de información de forma inteligente. Y en ese sentido, la web es un buen ejemplo.

Hay miles de millones de páginas, si tuvieras que hacer una búsqueda manualmente, sería totalmente imposible.

En ese caso la inteligencia artificial es muy útil, capaz de buscar palabras clave, de leer textos de forma inteligente, de manejar errores tipográficos, de realizar sugerencias si escribes algo aproximado.

En situaciones de emergencia también podrían ser muy útiles, por ejemplo en desastres naturales, como en terremotos o incendios.

O para la exploración espacial. También para el entretenimiento, puedo imaginarme una obra de teatro con actores robots.

De hecho, escribió junto al neurocientífico Òscar Villarroya una ópera, ‘Casparo’, con un robot como protagonista.

Así es pero Casparo estaba interpretado por un humano.

La tecnología está muy bien, pero al final siempre tiene que estar el humano, en todos los pasos finales. Por ejemplo, cuando buscamos algo en Google obtenemos una respuesta y valoramos con nuestra inteligencia si es o no lo que buscábamos.



La decisión última está en manos de los humanos.

¿Y no es siempre así?

Imagínate una web que pudiera hacer diagnósticos médicos.

Que pudieras introducir tus síntomas y el programa buscara casos similares al tuyo y pudiera diagnosticarte, decirte que tienes tal o cual.

Y que pretendiera que ése es el diagnóstico adecuado y que pudieras comprar vía internet simplemente apretando un botón el medicamento que te prescribe, que te llega a casa por Amazon.

A esto me refiero. Siempre en el último paso tiene que intervenir el ser humano.

La intuición, la empatía, el respeto por el otro, sólo lo podemos tener las personas, no un robot. Pero es que la inteligencia artificial se puede usar para cosas más interesantes.

Podemos con ella tener un impacto muy positivo en el planeta.

¿Como qué?

Para conseguir la paz o frenar el cambio climático.

Aunque eso implica que debemos dejar de destinar recursos a investigar cómo usarla con fines bélicos, y comenzar a dedicarlos a la gestión de la energía, a temas de movilidad, al mantenimiento de ecosistemas, entre otros. Aquí la inteligencia artificial realmente podría significar un cambio.

Por ejemplo, podemos usarla para evitar desastres ecológicos, para llevar a cabo una agricultura sostenible, una mejor distribución de la comida.

También a la hora de fomentar el diálogo entre culturas.

Las guerras suelen producirse cuando no hay suficiente comunicación entre dos grupos, se deshumaniza al otro y entonces sientes que le puedes hacer cualquier cosa. Eso se evitaría con diálogo, intercambio cultural y de ideas, y en eso la inteligencia artificial puede ser muy útil.


CRISTINA SÁEZ
lavanguardia.com