La IA ha cautivado la imaginación con la promesa de revolucionar la ciencia, pero Thomas Wolf de Hugging Face advierte contra predicciones excesivamente optimistas. Si bien muchos líderes de la IA prevén avances que conducirán a descubrimientos dignos de un Premio Nobel, Wolf argumenta que el desarrollo actual de la IA corre el riesgo de crear sistemas que simplemente refuercen el conocimiento existente en lugar de generar ideas verdaderamente novedosas.
La narrativa predominante en torno a la IA, particularmente dentro de la industria tecnológica, a menudo pinta un panorama de potencial revolucionario, prometiendo avances en numerosos campos, especialmente en la ciencia. Sin embargo, Thomas Wolf, cofundador y director científico de Hugging Face, ofrece una perspectiva más cautelosa y fundamentada, expresando preocupación de que las trayectorias actuales de desarrollo de la IA puedan conducir a una tecnología que, en última instancia, tenga limitaciones en sus capacidades creativas y de resolución de problemas. Temer un futuro en el que la IA se convierta en un “equipo de sí en servidores”, procesando diligentemente la información pero careciendo de la capacidad para una verdadera innovación científica. Esto contrasta marcadamente con las declaraciones más optimistas de otros líderes de la industria, como Sam Altman, director ejecutivo de OpenAI, que anticipa una IA “superinteligente” que acelere masivamente el descubrimiento científico, y Dario Amodei, director ejecutivo de Anthropic, que predice que la IA podría ayudar a formular curas para la mayoría de los tipos de cáncer.
El argumento central de Wolf se centra en la diferencia fundamental entre acumular conocimiento y generar verdaderos conocimientos novedosos. Sostiene que la IA actual, a pesar de tener acceso a vastos conjuntos de datos como la mayor parte de Internet, funciona principalmente rellenando las lagunas dentro del conocimiento humano existente. Destaca en el reconocimiento de patrones y la extrapolación, pero tiene dificultades para forjar nuevas conexiones entre hechos previamente no relacionados, un elemento crucial del avance científico. Ilustra este punto trazando un paralelismo con los descubrimientos científicos históricos, afirmando que el error común es ver a figuras como Isaac Newton y Albert Einstein como simplemente “alumnos sobresalientes ampliados”. En cambio, postula que lograr un equivalente de Einstein en la IA requiere un sistema capaz de formular preguntas que ni siquiera se han considerado antes, en lugar de simplemente conocer todas las respuestas existentes. Como él dice: “Para crear un Einstein en un centro de datos, no solo necesitamos un sistema que conozca todas las respuestas, sino uno que pueda hacer preguntas que nadie más ha pensado o se ha atrevido a hacer”.
Esta limitación, según Wolf, proviene de la estructura de incentivos actual dentro de los laboratorios de IA. Cree que los sistemas de IA se están entrenando para ser altamente obedientes y conformes a sus datos de entrenamiento, recompensando efectivamente las respuestas correctas y penalizando las desviaciones. Esto desalienta a la IA de cuestionar los paradigmas establecidos o de proponer ideas que puedan contradecir su base de conocimiento existente. En consecuencia, la IA se incentiva principalmente a responder preguntas conocidas en lugar de desafiar los supuestos y explorar territorios inexplorados. Él enfatiza que una IA verdaderamente revolucionaria sería una que pudiera escribir con confianza: “¿Qué pasa si todos se equivocan en esto?”, incluso cuando se enfrenta a un consenso abrumador de libros de texto, expertos y conocimiento común.
Un factor importante que contribuye a esta situación, según Wolf, es la “crisis de evaluación” dentro de la industria de la IA. Señala la práctica común de utilizar puntos de referencia que consisten en preguntas con respuestas claras, obvias y “de respuesta cerrada”. Estos puntos de referencia, aunque útiles para rastrear las mejoras incrementales, no evalúan la capacidad de la IA para participar en un razonamiento genuinamente creativo o contrafáctico. Recompensan a los sistemas que sobresalen en recordar y aplicar el conocimiento existente, pero no incentivan la formulación de hipótesis novedosas o la exploración de perspectivas alternativas. Este enfoque en métricas fácilmente cuantificables refuerza inadvertidamente la tendencia de la IA a convertirse en una herramienta altamente eficiente pero en última instancia poco inspirada.
Para abordar este desafío, Wolf propone un cambio de enfoque hacia la medición del “conocimiento y el razonamiento” de una manera más matizada. Aboga por el desarrollo de métricas que puedan evaluar la capacidad de una IA para adoptar “enfoques contrafácticos audaces”, hacer “propuestas generales basadas en pequeñas pistas” y, crucialmente, hacer “preguntas no obvias” que puedan conducir a “nuevos caminos de investigación”. Esto implicaría evaluar la capacidad de la IA para generar ideas potencialmente revolucionarias, incluso si esas ideas inicialmente parecen poco convencionales o incluso incorrectas. Reconoce que definir e implementar una medida de este tipo será una tarea compleja, pero cree que las recompensas potenciales: una IA verdaderamente innovadora capaz de impulsar el progreso científico, hacen que el esfuerzo valga la pena.
Además, Wolf traza una analogía convincente entre una IA deseable y un estudiante en un entorno académico tradicional. Sugiere que el objetivo no debería ser crear un “estudiante de IA con una calificación de A+ que pueda responder a todas las preguntas con conocimiento general”. En cambio, defiende el valor de un “estudiante de B que ve y cuestiona lo que todos los demás se perdieron”. Esta perspectiva destaca la importancia del pensamiento crítico, la curiosidad intelectual y la voluntad de desafiar la sabiduría convencional, cualidades que a menudo son más valiosas que la memorización mecánica y la recuperación perfecta. La capacidad de identificar lagunas en el conocimiento existente, de cuestionar los supuestos y de proponer explicaciones alternativas es, en opinión de Wolf, el aspecto más crucial de la investigación científica, y la calidad más necesaria en los sistemas de IA futuros.
Thomas Wolf advierte contra las expectativas infladas sobre el potencial científico de la IA, argumentando que los modelos actuales son “siestemas” que carecen de la capacidad creativa y cuestionadora de verdaderos innovadores científicos como Einstein. Pide un cambio en las métricas de evaluación de la IA para priorizar la generación de conocimiento y el cuestionamiento audaz sobre simplemente responder preguntas conocidas, instando a la industria a cultivar una IA que desafíe los supuestos en lugar de meramente regurgitar información. Quizás el próximo avance en la IA no se trate de conocer todas las respuestas, sino de atreverse a formular las preguntas correctas.
Leave a Reply