X
Uso de Cookies
EIS Digital utiliza cookies propias y de terceros para mejorar la navegabilidad de nuestra página, su acceso y la personalización de nuestros contenidos. Si continúa accediendo a nuestra página, entendemos que nos otorga su consentimiento expreso para su uso. Puede obtener más información sobre las mismas y su configuración en nuestra Política de Cookies.

Margaret Boden: "La inteligencia artificial, como el hacha, se puede usar para el bien o para el mal"

REVISTA DE PRENSA • 09/05/2018

Margaret Boden (Maggie para los amigos) ha visto de todo desde 1936. Nació en el Londres de los bombardeos y de Alan Turing, se abrió paso en el masculino mundo de la ciencia y se descolgó en 1977 con Inteligencia Artificial y Hombre Natural, uno de los libros pioneros en un campo que ha contribuido a ensanchar gracias a su 'sabiduría' adquirida en los mundos de la medicina, de la filosofía, de la psicología y de las ciencias cognitivas.

A sus 82 años, Boden sigue activa desde su mirador en la Universidad de Sussex, fiel a su condición de insaciable "mariposa intelectual". Nos recibe con vestido floreado en su casa de Brighton, que pronto sentimos como nuestra. Y nos invita a hacer un recorrido por las estanterías donde alternan libros y pequeños frascos de vidrio que se estiran hasta tiempos de los romanos. Estamos aquí para hablar de su último libro, Inteligencia Artificial (Turner), y para intentar distinguir entre la paja y el heno en un terreno pantanoso en el que se atrevió a adentrar en sus últimos meses de vida el mismísimo Stephen Hawking.

P. ¿Cuál es la idea más equivocada que tenemos sobre la inteligencia artificial?

R. Yo diría que hay dos ideas equivocadas. La primera es que la inteligencia artificial (IA) puede hacer mucho más de lo que es capaz realmente. Y la segunda es que puede hacer mucho menos. Entre estos dos polos nos movemos, y esa ha sido mi idea con este libro. Examinar la naturaleza de la IA, hacer balance de dónde estamos e intentar vislumbrar el futuro, con los pies en el suelo y sin caer en escenarios de ciencia ficción.

Meses antes de morir, con su voz computerizada, Stephen Hawking advirtió: "El desarrollo pleno de la inteligencia artificial puede significar el fin de la raza humana" ¿Verdadero o falso?

Ese tipo de afirmaciones genéricas sirven al final para infundir el temor a lo desconocido. Con todos mis respetos para Stephen Hawking, y reconociendo sus grandes méritos en el campo de la Física, no se puede intentar abarcar todo y hablar ex cátedra de un campo que no era su especialidad. Por no hablar de la profunda contradicción: él tenía que estar en el fondo agradecido a la IA porque le permitía hablar y comunicarse con los humanos.

Hawking era tan asombrosamente popular que todo lo que salía de su boca se elevaba inevitablemente a titular. Hizo mucho por la divulgación de la ciencia, pero no estaba en una posición privilegidada para hablar de la IA. Al fin y al cabo, su aproximación era la de un astrofísico, preocupado por el futuro de la Tierra y urgiendo a la especie humana a colonizar otros planetas.

El filósofo Nick Bostrom, al frente del Instituto para el Futuro de la Humanidad en la Universidad de Oxford, considera también la superinteligencia como el "mayor riesgo existencial" para la humanidad, por delante incluso del cambio climático...

Otra peligrosa generalización. Bostrom tiene ideas un poco locas, como la noción misma de la superinteligencia (una inteligencia superior a la humana) a mediados de siglo o incluso antes. Son predicciones un poco absurdas. Bostrom está contribuyendo también, a su manera, a infundir el miedo a ese futuro apocalíptico, y desviar por ejemplo la atención del cambio climático, que es un peligro presente y real, que va a comprometer enormemente las vidas de las próximas generaciones.

¿Y qué nos dice de las predicciones de Ray Kurzweil, el profeta de la singularidad?

Kurzweil es aún peor, precisamente por todo lo contrario. Habla de la singularidad (el momento en el que la inteligencia de las máquinas superan a la del hombre) como una especie de santo grial o de utopía tecnológica. En su opinión, la inteligencia artificial (combinada con la nanotecnología y con la biología sintética) servirá para acabar con las enfermedades, con las guerras e incluso con la muerte. Además predice que el momento está bien cerca, en torno al 2030... ¡Nos quedan 12 años! Lo tenemos como quien dice a la vuelta de la esquina... Es absurdo.

Pensar que con la IA puedes resolver conflictos tan humanos como el de Oriente Próximo (y ya puestos, el de Irlanda del Norte o el Cataluña) es totalmente ridículo. Los que creen en la singularidad ignoran las limitaciones de la IA actual. Se basan sólo en los avances tecnológicos exponenciales, pero ignoran un hecho: el aumento de potencia de los ordenadores y de la disponibilidad de datos no garantiza una IA de nivel humano.

El fundador de Tesla, Elon Musk, es otra de las voces más notorias ante los riesgos de la IA ¿No deberíamos darle algo de crédito?

A Elon Musk hay que agradecerle sobre todo que ponga sobre la mesa la cuestión ética y que ponga dinero para investigar temas que deberíamos haber estado investigando durante años. Su contribución al Instituto para el Futuro de la Vida me parece muy valiosa. Es esencial plantearnos escenarios de futuro, pero hay que hacerlo con investigaciones rigurosas y multidisciplinarias que nos adviertan de los riesgos reales.

En la parte final de su libro, usted reconoce sin embargo que pese a todos los "mitos" que rodean la IA, hay realmente motivos para "estar preocupados". ¿Cuáles son?

Desde que inventamos el hacha, cualquier tecnología se puede utilizar para el bien o para el mal. Uno de los elementos más preocupantes es obviamente su uso para fines militares, con la producción de soldados robóticos o el uso cada vez más extendido de drones, que de momento son manejados a distancia por seres humanos, pero que el futuro podrían tener capacidad incluso para "reconocer" un blanco. La ciberseguridad tiene cada vez una mayor connotación militar también. De hecho estamos asistiendo ya a ciberguerras invisibles en la que está en juego muchas veces nuestra capacidad para seguir adelante con nuestra vida cotidiana, conforme se vaya implantando el internet de las cosas y la IA se extienda a sectores vitales de nuestra economía, de la banca al suministro eléctrico.

Los usuarios de internet estamos prácticamente desprotegidos y dejando rastros en cada paso que damos. La extracción, manejo y gestión de datos es el gran negocio del siglo XXI.

¿Qué nos puede decir de la privacidad de los ciudadanos, a la luz del reciente escándalo de Facebook y Cambridge Analytica? ¿No corremos el riesgo de ser manipulados por un puñado de corporaciones? ¿El Big Data es acaso el Gran Hermano?

Afortunadamente, todo lo que ha pasado recientemente va a servirnos para despertar a tiempo. Creo que es un tema ante el que la opinión pública está ya muy sensibilizada, y los gigantes tecnológicos nos pueden seguir escondiendo la cabeza o hacer como si cosa no fuera con ellos. En este sentido, creo que la Unión Europea ha marcado el horizonte con la Regulación General de Protección de Datos (GDPR), que entrará en vigor en mayo. Es un primer paso para defender los derechos de los ciudadanos y poner a las compañías en su sitio. Pero harán falta dar más pasos: hoy por hoy, los usuarios de internet estamos prácticamente desprotegidos y dejando rastros en cada paso que damos. La extracción, manejo y gestión de datos es el gran negocio del siglo XXI.

Usted advierte que la amenaza primordial de la IA es el "desempleo tecnológico". Algunos estudios hablan de un 40% de empleos automatizados en las próximas dos décadas. ¿Nos quitará el trabajo un robot?

En este terreno, la gente tiene razones sobradas para estar preocupada. Lo que está ocurriendo con la revolución tecnológica es comparable con la Revolución Industrial, sólo que en esta ocasión me temo que se van destruir más empleos de los que se construyan. Todos los trabajos rutinarios o mecánicos están amenazados. La parte más rutinaria de los abogados o de los médicos será también desempeñada por máquinas, que estarán incluso mejor capacitadas para hacer diagnósticos. Ningún sector quedará indemne de la inteligencia artificial, y el efecto a medio plazo debería precuparnos.

Muchos trabajos van a desaparecer, y los que surjan van a ser altamente especializados, como el análisis de datos. Los profesionales van a tener que adaptarse a la nueva situación, y el sistema educativo va a necesitar también un severo ajuste. Creo que deberíamos tener ya un profundo debate sobre cómo adaptar la sociedad a la nueva situación. Tengo, eso sí, la esperanza de que seamos sensatos a la hora de ceder el testigo a las máquinas, y que no sólo primen factores económicos. Hay trabajos que siempre harán mejor los humanos, y muchos otros en los que precisamente se valorará el contacto humano, frente al tratamiento impersonal de la máquina.

¿Cómo afectará la IA a nuestra vida diaria a corto plazo?

Ningún aspecto de nuestra vida va a escapar a la IA. Todos los sectores van a resultar afectados de una u otra manera. Basta que con que alguien con suficiente imaginación identifique el problema y escriba el programa. Muchos de los cambios que veremos serán a mejor, pero todos los avances tecnológicos tienen consecuencias no previstas. Internet nos ha hecho la vida más fácil sin salir de casa, pero se lo está poniendo muy difícil a los comercios a pie de calle.

¿Y cuándo veremos coches sin conductor circulando por las calles?

No soy muy amiga de hacer previsiones a corto o medio plazo, entre otras cosas porque siempre hay elementos imprevisibles que cambian por completo el escenario. La tecnología está ahí, pero hay muchos otros factores que conviene tener en cuenta. El más importante de ellos, el factor humano. El imperativo ético para la implantación de tecnologías de IA debería ser ese: poner a los seres humano primero.

La Inteligencia Artificial Amigable, acuñada por Eliezer Yudkowsky, va por ese camino...

La FAI (por sus siglas en inglés) propone efectivamente "un efecto positivo sobre la humanidad", pero va más allá de las cuestiones éticas y reclama también principios como la transparencia, para garantizar que las tecnologías sigan siendo "amigables" ante posibles cambios. Es una noción interesante que refleja el interés creciente que hay entre los expertos por poner los valores humanos al frente de la IA.

Usted ha levantado también la voz contra el uso y abuso de robots de compañía...

Es uno de los asuntos que más me preocupa, es cierto. Se están comercializando ya los "acompañantes computerizados" para ancianos, los "robots niñera" e incluso robots sexuales... Mi tesis es ésta: no podemos intentar solucionar un problema esencialmente humano, como el de la soledad o el aislamiento social, usando una máquina como sustituta.

El cuidado de los mayores, por ejemplo, requiere sobre todo atención humana ¿Y qué estamos haciendo? Recortando los gastos sociales y poniendo en la calle a trabajadores irremplazables. El robot no puede ser un cuidador. Puede en todo caso dar la alarma si una persona se pone enferma, puede controlar que se tome las pastillas o puede incluso entretenerla, pero nunca cuidar a una persona, ni mantener una conversación para la que se requiere empatía e inteligencia emocional.

La inteligencia artificial no alzanzará la 'sabiduría' en un futuro predecible.

Stephen Hawking definía la inteligencia como "la capacidad para adaptarse a a los cambios". ¿Se quedo corto en la definición?

Definir la inteligencia es una misión casi imposible. ¿La habilidad para lograr nuestros objetivos y satisfacer nuestras necesidades? Esa definición tampoco me vale. Al fin y al cabo el cerebro sigue encerrando muchos misterios que aún no hemos conseguido descifrar, y mucho menos emular. Y hay quienes sostienen que hemos tenido hasta ahora una visión demasiado "cerebral"... Durante mucho tiempo se circunscribió la inteligencia a su dimensión racional, pero ahora hablamos de inteligencia emocional y de inteligencia social, y en esos dos terrenos les queda aún un largo camino que recorrer a las máquinas.

Usted identifica precisamente la emoción, la creatividad y el lenguaje como los tres talones de Aquiles de la Inteligencia Artificial Fuerte (IAF), que aspira a igualar o a exceder la inteligencia humana...

Es cierto. Pero también lo es que, incluso en estos ámbitos que seguimos considerando "esencialmente humanos", la IA ha llegado ya más lejos de lo que mucha gente cree. No solo en el terreno del lenguaje, que quizás es el más conocido, también en el de la creatividad y en sus tres variantes (combinatoria, exploratoria y transformacional). La emoción puede resultar lo más ajeno a la inteligencia emocional y, sin embargo, desde finales de los años 90 ha habido intentos de trasladar a una máquina los aspectos funcionales de la ansiedad, como el sistema Minder de Aaron Sloman, pensado para meterse en la piel de una enfermera humana y decidir las prioridades.

¿Y qué me dice de la sabiduría? ¿Tendremos algún día máquinas "sabias"?

La sabiduría es algo que no tendrá una máquina en un futuro predecible. Sobre esto ha escrito mucho el filósofo Nicholas Maxwell, que distingue claramente entre sabiduría y conocimiento. La sabiduría va mucho más allá del conocimiento y comporta la experiencia, la sensatez y la prudencia, entre otras cualidades.

¿La sabiduría es algo que se adquiere con los años?

No lo sé. Lo que yo he intentado no perder es la curiosidad intelectual. Alguna vez he dicho que me considero "una mariposa intelectual". Al fin y a cabo llegué hasta la inteligencia artificial después de haber tocado muchos palos. Mi primer interés fue la medicina, de ahí salté a la filosofía, después la psicología y las ciencias cognitivas. Todo este camino me permitió tener una visión bastante amplia de lo que es la IA.

Usted es pionera con uno de los primeros libros sobre el tema en 1977...

Tanto como pionera no, pero sí fui una de las primeras mujeres en interesarse por el tema.

¿Cuál fue su experiencia en un mundo académico y científico dominado por los hombres?

Bastante surrealista a veces. Recuerdo que cuando leí mi primer paper sobre teoría explicativa del conocimiento, intentando indagar en el concepto de verdad, el jurado no me felicitó como suele ser habitual. El único comentario que me hicieron fue: "Como usted es una mujer, la verdad no le parece importante"... Yo no me dejé desalentar, pero el ambiente en el que nos movíamos era realmente opresivo, y más aún en terreno abonado para los hombres como el de la informática.

La historia que lo dice todo es la de Stephanie Shirley, emprendedora y auténtica pionera de la tecnología de la información en este país. Todo el mundo la conoce como Steve Shirley, porque tuvo que masculinizar su nombre para que la aceptaran en ofertas de trabajo.

Al cabo de más de 50 años sigue arraigada en Brighton y vinculada a la Universidad de Sussex. ¿No cayó en la tentación de Oxford o Cambridge?

Ofertas no me faltaron, pero he sido fiel a la Universidad de Sussex porque fue pionera con la creación de la Escuela de Ciencias Cognitivas e Informáticas (COGS, por sus siglas en inglés) y por su aproximación multidisciplinar, que creo que fue muy visionaria.

¿Qué consejo le daría a una mujer que decida explorar el mundo de la inteligencia artificial?

Que vaya a por ello, con deteminación y sin dudar. Y sin ponerse nunca en una situación de inferioridad o debilidad frente a los hombres, sobre todo en las entrevistas de trabajo.

¿Y qué opinan sus cuatro nietos de la abuela de la inteligencia artificial?

Mis nietos, una niña y tres niños, son nativos digitales y tienen una relación con las máquinas bastante más natural. Pero he de confesar que me preocupa su futuro. Creo que será la primera generación en mucho tiempo que vivirá en peores condiciones económicas que sus padres y enfrentada además a un mundo cargado de incertidumbre y de grandes retos, de la automatización al cambio climático, que es lo que más me preocupa... Por no hablar del Brexit. Es injusto que les estemos cerrando las puertas de Europa, como es absurdo que renunciemos a la financiación de la UE, que es esencial para la investigación en muchas universidades británicas.



Autor: Carlos Fresneda en elmundo.es, sección sobre Inteligencia Artificial.

Foto: Mary Bernard.



Búsqueda por fechas
hasta

NOTICIAS MÁS LEIDAS
Noticia
“Los que entienden matemáticas controlan el mundo”
REVISTA DE PRENSA • 12/04/2018
Un bocadillo de tebeo en la camiseta de Marcus du Sautoy (Londres, 1965) lee “Yo no sé nada”. No es cierto: Du Sautoy ocupa una cátedra de matemáticas en la Universidad de Oxford (Reino Unido) y la cátedra Simonyi para el Entendimiento Público de la Ciencia, un puesto del que relevó al etólogo Richard Dawkins en 2008. El matemático, escritor y divulgador científico está en Madrid para presentar su nuevo libro Lo que no podemos saber, publicado en castellano por la editorial Acantilado. a camiseta no es una casualidad. Aunque el bocadillo sale de la boca del personaje ficticio Jon Nieve, de Juego de Tronos, Du Sautoy lo ha elegido para llamar la atención a su propia ignorancia. A pesar de sus inmensos conocimientos, este es un científico al que no le da miedo admitir, y afrontar, lo desconocido.
Noticia
Margaret Boden: "La inteligencia artificial, como el hacha, se puede usar para el bien o para el mal"
REVISTA DE PRENSA • 09/05/2018
Margaret Boden (Maggie para los amigos) ha visto de todo desde 1936. Nació en el Londres de los bombardeos y de Alan Turing, se abrió paso en el masculino mundo de la ciencia y se descolgó en 1977 con Inteligencia Artificial y Hombre Natural, uno de los libros pioneros en un campo que ha contribuido a ensanchar gracias a su 'sabiduría' adquirida en los mundos de la medicina, de la filosofía, de la psicología y de las ciencias cognitivas. A sus 82 años, Boden sigue activa desde su mirador en la Universidad de Sussex, fiel a su condición de insaciable "mariposa intelectual". Nos recibe con vestido floreado en su casa de Brighton, que pronto sentimos como nuestra. Y nos invita a hacer un recorrido por las estanterías donde alternan libros y pequeños frascos de vidrio que se estiran hasta tiempos de los romanos.