16 líderes de la IA que deberías conocer y seguir para adelantarte

16 líderes de la IA que deberías conocer y seguir para adelantarte

Desde que ChatGPT vio la luz, en noviembre de 2022, la inteligencia artificial se ha convertido en un fenómeno de masas.

Las inversiones en IA crecen con rapidez —se espera que en 2025 alcancen los 200.000 millones de dólares (unos 182.000 millones de euros)— a medida que las empresas se lanzan a apostar por esta tecnología.

La gente se pregunta cómo va a cambiar la inteligencia artificial su manera de comunicarse, cómo puede hacer sus vidas más eficientes e incluso si podría llegar a sustituirles en sus puestos de trabajo. Sin embargo, en los últimos meses, importantes líderes empresariales y expertos en la materia han empezado a hablar de los riesgos que puede traer consigo el rápido desarrollo de la IA.

Algunos afirman que la inteligencia artificial supondrá un gran salto en la calidad de vida de las personas. Otros, en cambio, han firmado un manifiesto pidiendo una moratoria en el desarrollo de esta tecnología, han declarado en el Senado de Estados Unidos sobre sus posibles riesgos y han indicado que podría representar un peligro más urgente para el ser humano que el cambio climático.

En resumen, la IA es un tema apasionante y controvertido. Para ayudarte a entender todo este alboroto, Business Insider ha elaborado una lista con algunos de los grandes nombres de este campo. Por supuesto, ninguna lista es lo suficientemente exhaustiva, pero es un buen punto de partida para saber lo que dicen los principales líderes del sector sobre cómo la tecnología podría moldear el futuro.

Geoffrey Hinton, profesor emérito de la Universidad de Toronto, conocido como «el padrino de la inteligencia artificial»

La investigación de Hinton se ha centrado principalmente en las redes neuronales, sistemas que aprenden habilidades analizando datos. En 2018, ganó el Turing Award, un prestigioso premio de ciencias de la computación junto a sus compañeros investigadores Yann LeCun y Yoshua Bengio.

Hinton también trabajó en Google durante más de una década, pero hace unos meses dimitió de su cargo en la compañía tecnológica, según él, para poder hablar con más libertad sobre el desarrollo acelerado de la inteligencia artificial.

Tras renunciar a su empleo, llegó a decir que una parte de él se arrepentía del papel que había desempeñado en el avance de esta tecnología. «Me consuelo con la típica excusa: si no lo hubiese hecho yo, lo habría hecho otro. Es difícil ver cómo se puede evitar que los malos actores la utilicen para hacer cosas malas», declaró Hinton antes de dejar su puesto en Google.

Desde entonces, el investigador se ha convertido en un abierto defensor de la seguridad de la IA y la ha calificado esta tecnología como un riesgo para la humanidad más urgente que el cambio climático. También ha firmado un manifiesto que pedía una moratoria de seis meses en el desarrollo de esta tecnología.

Yoshua Bengio es profesor de Informática en la Universidad de Montreal

También se ganó el apodo de «padrino de la IA» tras ganar el Premio Turing junto a Geoffrey Hinton y Yann LeCun.

La investigación de Bengio se centra principalmente en las redes neuronales artificiales, el aprendizaje profundo y el aprendizaje automático. Según su página web, en 2022 Bengio se convirtió en el informático con «el índice h» más alto del mundo, una métrica que se utilizar para evaluar el impacto acumulativo de la producción académica de un autor.

Más allá de su trabajo académico, Bengio también cofundó Element AI, una startup que desarrolla soluciones de software de IA para empresas y que fue adquirida por la compañía de la nube ServiceNow en 2020.

En los últimos meses, sin embargo, Bengio también ha expresado su preocupación ante el vertiginoso desarrollo de la inteligencia artificial. El profesor universitario también firmó la carta abierta que pedía una pausa de seis meses en el desarrollo de la IA y que fue firmada por más de 33.000 personas, entre ellas, Hinton, Sam Altman CEO de OpenAI (la desarrolladora de ChatGPT) o Elon Musk.

«Los sistemas actuales ni siquiera están cerca de suponer un riesgo existencial», señaló con anterioridad. «¿Pero dentro de uno, dos o cinco años? Hay demasiada incertidumbre».

Sam Altman, CEO de OpenAI, se ha catapultado como una figura importante en el ámbito de la inteligencia artificial desde que publicó ChatGPT el pasado noviembre

Altman ya era un nombre conocido en Silicon Valley mucho antes de ChatGPT, ya que había sido presidente de la aceleradora de startups Y-Combinator

Aunque el CEO de OpenAI ha defendido los beneficios de la inteligencia artificial, calificándola como el «salto hacia adelante más extraordinario» para la calidad de vida de las personas, también ha hablado con franqueza sobre los riesgos que plantea esta tecnología para la humanidad. Altman ha llegado a declarar ante el Senado estadounidense para abordar la regulación de la IA.

También ha asegurado que los riesgos potenciales de ChatGPT le quitan el sueño.

El informático francés Yann LeCun también fue apodado como «padrino de la IA» tras ganar el Premio Turing con Hinton y Bengio

A lo largo de su carrera, LeCun ha publicado más de 180 artículos académicos y capítulos de libros sobre temas que van desde el aprendizaje automático hasta la visión artificial y las redes neuronales, según su página web personal.

LeCun es profesor en la Universidad de Nueva York y también se unió a Meta —la matriz de Facebook, Instagram y WhatsApp— en el 2013, donde ahora es el científico jefe de inteligencia artificial.

En Meta, ha sido pionero en la investigación sobre el entrenamiento de bots para hacer predicciones basadas en vídeos de acontecimientos cotidianos como una manera de dotarlos de una especie de sentido común. La idea es que los humanos aprendemos muchísimo sobre el mundo a partir de la observación pasiva.

En comparación con sus compañeros, el profesor universitario se ha mostrado relativamente tranquilo con respecto a los riesgos que plantea la IA. De hecho, ha llegado a decir que la preocupación de que la tecnología pueda suponer una amenaza para la humanidad es «absurdamente ridícula«.

También ha afirmado que la inteligencia artificial generativa, como ChatGPT, que se ha entrenado con grandes modelos lingüísticos todavía no llega a ser igual de inteligente que un perro o un gato.

Fei-Fei Li es profesora de Informática en la Universidad de Stanford y fue vicepresidenta de Google

La investigación de Li se centra en el aprendizaje automático, el aprendizaje profundo (deep learning), la visión artificial y la IA de inspiración cognitiva, según su perfil en la página web de Stanford.

La profesora universitaria también es conocida por haber creado ImageNet, una gran base de datos visuales que fue diseñada para investigar el reconocimiento visual de objetos, así como el correspondiente desafío que plantea esta base de datos, en la que los programas de software compiten por clasificar correctamente los objetos.

A lo largo de los años, Li ha estado vinculada a gigantes tecnológicos como Google —donde fue vicepresidenta y directora científica de inteligencia artificial y aprendizaje automático— y Twitter (ahora X), donde formó parte del consejo de administración desde 2020 hasta la adquisición por parte de Elon Musk en 2022.

Stuart Russell, catedrático de la Universidad de Berkeley, lleva mucho tiempo preguntándose cómo será la relación entre la IA y la humanidad

En 2019, Russell publicó Human Compatible, un libro en el que exploraba cómo los humanos y las máquinas podrían coexistir a medida que las máquinas se volviesen cada vez más inteligentes. Russell defendía que la respuesta estaba en diseñar bots que no tuviesen claras las prioridades humanas para que no priorizasen sus propios objetivos por encima de los de los humanos.

También es autor de textos fundamentales en este campo, como el libro Artificial Intelligence: A Modern Approach, que escribió junto con Peter Norvig, antiguo profesor de la UC-Berkeley.

En los últimos meses, Russell ha hablado abiertamente de lo que el rápido desarrollo de los modelos de IA puede suponer para la sociedad en su conjunto.

En junio, también advirtió de que programas de inteligencia artificial como ChatGPT estaban «empezando a chocar con un muro de ladrillo» en cuanto a la cantidad de texto que les quedaba por ingerir. También afirmó que los avances de la IA podrían suponer el fin de las clases tradicionales.

Peter Norvig desempeñó un papel fundamental en la dirección de la investigación sobre inteligencia artificial en Google

A principios de la década de los 2000, Norvig pasó varios años dirigiendo el grupo central de algoritmos de búsqueda de Google y más tarde pasó a desempeñar el cargo de director de investigación, donde supervisó equipos de traducción automática, reconocimiento de voz y computer vision.

También ha pasado por varias instituciones académicas a lo largo de los años como exmiembro de la facultad de UC-Berkeley, antiguo profesor de la Universidad del Sur de California y, ahora, investigador en el centro de Valores humanistas en la Inteligencia Artificial —del inglés Human-Centered AI— de Stanford.

Norvig ha declarado a Business Insider por correo electrónico que «la investigación en IA se encuentra en un momento muy emocionante, en el que estamos empezando a ver modelos que pueden rendir bien (aunque no perfectamente) en una amplia variedad de tareas generales».

Sin embargo, ha añadido que, «al igual que ocurre con Internet, existe el riesgo de que estos potentes modelos de inteligencia artificial puedan ser utilizados maliciosamente por personas sin escrúpulos para difundir desinformación […]. Un tema importante de la investigación actual es la defensa contra ese tipo de ataques».

Timnit Gebru es una informática conocida por su trabajo sobre los sesgos en los algoritmos de IA

Gebru fue investigadora científica y codirectora técnica del equipo de Inteligencia Artificial Ética de Google, donde publicó investigaciones pioneras sobre los sesgos en el aprendizaje automático. Su investigación, sin embargo, también derivó en una controversia mayor que, según ella, finalmente la llevó a ser despedida de Google en 2020. En ese momento, Google no hizo declaraciones al respecto.

En 2021, Gebru fundó el Distributed AI Research Institute, una institución académica que se presenta como un «espacio para la investigación independiente y comunitaria de la IA, libre de la influencia omnipresente de las Big Tech«.

Recientemente, advirtió de que la fiebre del oro de la inteligencia artificial iba a hacer que las compañías descuidasen la implementación de las medidas de seguridad necesarias en torno a esta tecnología.

«A menos que exista presión externa para hacer algo diferente, las empresas no van a autorregularse», declaró la científica computacional. «Necesitamos regulación y necesitamos algo mejor que el simple afán de lucro».

El informático británico-estadounidense Andrew Ng fundó un proyecto de deep learning masivo llamado «Google Brain» en 2011

El esfuerzo condujo al Google Cat Project, un logro en la investigación del aprendizaje profundo en el que se entrenó una red neuronal masiva para detectar vídeos de gatos en YouTube.

Ng también fue científico jefe en el gigante tecnológico chino Baidu, donde dirigió la estrategia de inteligencia artificial. A lo largo de su carrera, ha escrito más de 200 artículos de investigación sobre temas que van desde el aprendizaje automático a la robótica, según su página web.

Más allá de su propia investigación, Ng ha sido pionero en la educación online. Cofundó Coursera junto con la informática Daphne Koller en 2012 y, cinco años después, fundó la empresa de tecnología educativa DeepLearning.AI, que ha desarrollado programas de IA en Coursera.

«Creo que la inteligencia artificial sí que tiene riesgos. Existe el sesgo, la imparcialidad, la concentración de poder, la amplificación de discursos de odio, la generación de discursos tóxicos, el desplazamiento de puestos de trabajo. Existen riesgos reales», reconoció a Bloomberg el pasado mes de mayo.

Sin embargo, añadió que no cree que la IA vaya a suponer un riesgo existencial para la humanidad. En todo caso, es probable que sea parte de la solución. «Si queremos que la humanidad sobreviva y prospere durante los próximos mil años, en lugar de ralentizarla, preferiría que la inteligencia artificial fuese más rápida para ayudarnos a resolver estos problemas», apuntó Ng.

Daphne Koller es la fundadora y CEO de Insitro, una startup de descubrimiento de fármacos que utiliza el aprendizaje automático

Koller es una profesora condecorada, investigadora de MacArthur y autora de más de 300 publicaciones con un índice h de más de 145, según su biografía del Instituto Broad.

También es una emprendedora que fundó Insitro, una startup respaldada por Jeff Bezos en el año 2018 que utiliza el aprendizaje automático para facilitar el descubrimiento de fármacos. Antes de eso, Koller fue directora de informática en Calico, la spinoff de prolongación de la vida de Google.

Koller ha explicado a Business Insider por correo electrónico que Insitro aplica la inteligencia artificial y el aprendizaje automático para avanzar en la comprensión de «la biología de las enfermedades humanas e identificar intervenciones terapéuticas significativas».

Según esta especialista en IA, los mayores riesgos que el desarrollo de esta tecnología son «la esperada reducción de la demanda de ciertas categorías laborales; el mayor debilitamiento de ‘la verdad’ (debido al creciente desafío que supone poder distinguir lo que es real de lo que no); y la forma en que la inteligencia artificial permite a la gente hacer cosas malas».

Al mismo tiempo, Koller sostiene que los beneficios son demasiados y demasiado grandes para hacerse una idea: «La IA acelerará la ciencia, personalizará la educación, ayudará a identificar nuevas intervenciones terapéuticas y muchas cosas más».

Daniela Amodei cofundó la startup de inteligencia artificial Anthropic en 2021, tras su salida de OpenAI

Amodei cofundó Anthropic junto con otros seis empleados de OpenAI, incluido su hermano, Dario Amodei.

Al parecer, se marcharon, en parte, porque a Dario —el principal investigador de seguridad de OpenAI en aquel momento— le preocupaba que el acuerdo de la desarrolladora de ChatGPT con Microsoft le obligase a lanzar productos demasiado rápido y sin las precauciones necesarias.

En Anthropic, Amodei se centra en garantizar la confianza y la seguridad de la IA. El chatbot Claude de la empresa se presenta como una alternativa más fácil de usar que ChatGPT y ya está siendo implementado por empresas como Quora y Notion.

La startup de los hermanos Amodei se basa en lo que se denomina un marco de «Triple H», siglas en inglés de «útil, honesto e inofensivo». Eso significa que Anthropic se basa en la aportación humana a la hora de entrenar sus modelos, incluida la inteligencia artificial fundacional, en la que un cliente esboza los principios básicos sobre cómo debería funcionar la IA.

«Todos tenemos que analizar simultáneamente los problemas actuales y pensar realmente en cómo avanzar en ellos, sin perder de vista el futuro de los problemas que se avecinan», declaró Amodei hace unas semanas a Business Insider.

Demis Hassabis ha señalado que la inteligencia artificial general llegará en unos años

Hassabis, un niño prodigio del ajedrez que estudió en Cambridge y en el University College de Londres, fue apodado el «superhéroe de la inteligencia artificial» por The Guardian en el 2016.

Tras varios periodos de investigación y una aventura en el mundo de los videojuegos, Hassabis fundó DeepMind en 2010. Cuatro años más tarde, en 2014, la vendió a Google por 400 millones de libras (unos 463 millones de euros al tipo de cambio actual).

Este superhéroe ha trabajado en algoritmos para abordar problemas de salud y de cambio climático, y también lanzó una unidad de investigación dedicada a la comprensión del impacto ético y social de la IA en 2017, según la página web de la propia DeepMind.

Hace poco, Hassabis afirmó que la promesa de la inteligencia artificial general —un concepto teórico que considera que la IA puede llegar a igualar las capacidades cognitivas de los seres humanos— está a la vuelta de la esquina.

«Creo que tendremos sistemas muy capaces y muy generales en los próximos años», señaló el fundador de DeepMind, que añadió que no veía por qué el progreso de la inteligencia artificial podía ralentizarse. Aun así, Hassabis reconoció que el desarrollo de la IAG debe desarrollarse «con cautela y utilizando el método científico».

El año pasado, Mustafa Suleyman, cofundador de DeepMind, lanzó la empresa de inteligencia artificial Inflection AI junto a Reid Hoffman, cofundador de LinkedIn, y a Karén Simonyan, actual directora científica de la empresa

La startup, que pretende crear «una IA personal para todos», recaudó recientemente cerca de 1.180 millones de euros de financiación, según PitchBook.

Su chatbot, Pi, que representa las siglas de «inteligencia personal», se entrena con grandes modelos lingüísticos similares a ChatGPT o Bard, de Google. Pi, en cambio, está diseñado para ser más conversacional y ofrecer apoyo emocional. Suleyman lo ha descrito recientemente como un «oyente neutral», que puede responder a problemas de la vida real.

«Muchas personas solo quieren que se les escuche y quieren una herramienta que reproduzca lo que han dicho para demostrar que realmente se les ha escuchado», indicaba  Suleyman ante los medios de comunicación.

La profesora de la USC Kate Crawford se centra en las implicaciones sociales y políticas de los sistemas de inteligencia artificial a gran escala

Crawford también es investigadora principal en Microsoft y autora de Atlas of AI, un libro que se basa en la amplitud de sus investigaciones para desvelar cómo la IA está moldeando la sociedad.

La investigadora se muestra a la vez optimista y cauta sobre el estado del desarrollo de la IA. A través de un correo electrónico, ha asegurado a este medio de comunicación que está entusiasmada con las personas con las que trabaja en todo el mundo, «que están comprometidas con enfoques más sostenibles, basados en el consentimiento y equitativos para utilizar la IA generativa».

Sin embargo, ha añadido que «si no abordamos el desarrollo de la inteligencia artificial con cuidado y precaución, y sin las salvaguardas regulatorias necesarias, podría darse concentraciones extremas de poder, con efectos peligrosamente antidemocráticos».

Margaret Mitchell es la responsable de Ética de Hugging Face

Mitchell ha publicado más de 100 artículos académicos a lo largo de su carrera, según su página web, y ha encabezado proyectos de inteligencia artificial en varias grandes empresas tecnológicas, como Microsoft y Google.

A finales de 2020, Mitchell publicó un artículo sobre los riesgos de los grandes modelos lingüísticos, junto con Timnit Gebru, que entonces codirigía el equipo de Inteligencia Artificial Ética de Google.

El documento provocó desacuerdos entre los investigadores y la dirección de Google, lo que finalmente llevó a la salida de Gebru de la empresa en diciembre de 2020. Mitchell fue despedido por Google apenas dos meses después, en febrero de 2021.

Ahora, en Hugging Face, una plataforma de ciencia de datos y aprendizaje automático de código abierto fundada en 2016, Mitchell está pensando en cómo democratizar el acceso a las herramientas necesarias para construir y desplegar modelos de IA a gran escala.

En una entrevista con Morning Brew, donde Mitchell explicó lo que significa diseñar una IA responsable, comentó: «Empecé mi camino hacia el trabajo en lo que ahora se llama inteligencia artificial en el 2004, específicamente con un interés en alinear la IA más cerca del comportamiento humano».

«Con el tiempo, esto ha ido evolucionando y ahora se trata menos de imitar a los humanos y más de tener en cuenta el comportamiento humano y trabajar con los humanos de forma asistencial y aumentativa», agregó.

Navrina Singh es la fundadora de Credo AI, una plataforma de gobernanza de la inteligencia artificial

Credo AI esencialmente es una plataforma que ayuda a las empresas a asegurarse de que cumplen con la creciente normativa sobre el uso de la IA.

En declaraciones a Business Insider, Singh sugiere que, al automatizar los sistemas que conforman la vida, la inteligencia artificial tiene la capacidad de «liberarnos para desarrollar nuestro potencial en todos los ámbitos en los que se implante».

Al mismo tiempo, sostiene que los algoritmos ahora mismo carecen del juicio humano necesario para adaptarse a un mundo cambiante.

«A medida que integramos la IA en la infraestructura fundamental de la civilización, estos equilibrios adquieren implicaciones existenciales», opina Singh. «Conforme avanzamos, la responsabilidad de armonizar los valores humanos y el ingenio con la precisión algorítmica no es negociable. La gobernanza responsable de la inteligencia artificial es primordial».

Ramón Armero

Jose Manuel Fuentes Prieto

Emprendedor en internet y, enamorado de las iniciativas sociales que surgen en torno a colectivos mas vulnerables. Desde el Gabinete de Comunicación edita webs enfocadas en los emprendedores y teletrabajadores

Deja una respuesta