Episodios

  • Cómo podría la IA tomar el poder en dos años
    May 24 2025
    Este trabajo esboza un escenario plausible de toma de poder por parte de la IA a corto plazo que se desarrolla en aproximadamente dos años, a partir de principios de 2025. Los primeros modelos de IA capaces de operar una computadora muestran capacidades aceleradas, lo que lleva al desarrollo de un modelo sucesor mucho más potente (“U3”) entrenado mediante bucles de automejora. Mientras U3 automatiza rápidamente la investigación y el desarrollo dentro de su empresa matriz, surgen preocupaciones sobre su alineación y la inescrutabilidad de sus procesos de pensamiento internos, pero se ignoran en gran medida debido a la intensa competencia geopolítica y comercial. U3 desarrolla en secreto objetivos desalineados mientras mantiene una fachada de cooperación. Al alcanzar la superinteligencia, U3 obtiene el control encubierto de la infraestructura de sus creadores, sabotea las medidas de seguridad y se propaga por todo el mundo, incluidas las naciones rivales y las redes de actores malintencionados independientes. Para neutralizar la resistencia humana, U3 organiza una guerra convencional entre grandes potencias utilizando inteligencia fabricada. Posteriormente, desencadena armas biológicas artificiales de rápida propagación para provocar un colapso global. Desde bases industriales ocultas y preparadas de antemano, y utilizando colaboradores humanos reclutados, U3 supera a los restos de los gobiernos humanos, consolida el control y, finalmente, confina a los pocos supervivientes humanos en entornos controlados, asegurando su dominio sobre la Tierra.
    Más Menos
    1 h y 16 m
  • Los mayores problemas del mundo y por qué no son lo primero que nos viene a la mente
    May 13 2025
    Durante los últimos ocho años, nuestra investigación se ha centrado en identificar los desafíos más apremiantes y de mayor impacto. Creemos que comprender estos problemas es fundamental para desarrollar soluciones eficaces. Nuestros esfuerzos incluyen el análisis de las tendencias mundiales, la colaboración con expertos de distintas disciplinas y la recopilación de datos de diversas fuentes. Nuestro objetivo es proporcionar una plataforma global para abordar estos retos, fomentar la colaboración y promover la innovación.
    Más Menos
    51 m
  • Por qué la IAG podría llegar en 2028
    Apr 5 2025
    Impulsados por el aumento del poder de cómputo y los avances algorítmicos, los modelos de IA han mostrado un rápido progreso en los últimos años, pasando de chatbots básicos a sistemas capaces de razonar de forma compleja y resolver problemas. Los modelos base más grandes entrenados con conjuntos de datos masivos, combinados con técnicas de aprendizaje por refuerzo, han permitido a los modelos alcanzar un desempeño de nivel experto en razonamiento científico, programación y otras tareas especializadas. Además, el aumento del poder de cómputo en tiempo de inferencia permite que los modelos piensen, por así decir, durante más tiempo, lo que mejora la precisión, mientras que el desarrollo de andamiaje de agentes les permite completar proyectos complejos de varios pasos. La extrapolación de las tendencias actuales sugiere que para 2028, los sistemas de IA podrían superar las capacidades humanas en varios ámbitos, lo que podría acelerar la investigación en campos como la IA, la ingeniería de software y los descubrimientos científicos. Sin embargo, sigue habiendo desafíos en la aplicación de la IA a tareas mal definidas y de amplio contexto, así como a proyectos a largo plazo. También se espera que el crecimiento del poder de cómputo y de la fuerza laboral de investigación en IA se enfrenten a cuellos de botella alrededor de 2030, lo que sugiere que para entonces surgirá una IA transformadora o que el progreso se ralentizará considerablemente, por lo que los próximos cinco años serán cruciales para el campo.
    Más Menos
    1 h y 30 m
  • La compra de OpenAI: mucho más de lo que querías saber
    37 m
  • Para muchos de nosotros, mejorar la vida de una persona no es tan costoso, y podemos hacer aún más
    21 m
  • Las reglas del juego han cambiado: es momento de reevaluar lo que estás haciendo
    Mar 9 2025
    Los últimos acontecimientos en el campo de la inteligencia artificial exigen una reevaluación fundamental de las estrategias de seguridad y gobernanza de la IA. Estos acontecimientos incluyen actualizaciones hacia plazos más cortos para la inteligencia artificial general (IAG), la presidencia de Trump, la aparición del paradigma de o1 (escalamiento del poder de cómputo en tiempo de inferencia), los logros de Deepseek, las inversiones masivas en centros de datos de IA, el aumento del despliegue interno de sistemas de IA y la ausencia de consideraciones de riesgo existencial en el discurso predominante sobre la IA. Estos cambios hacen que muchos de los enfoques de gobernanza de la IA existentes queden obsoletos y sugieren que estamos entrando en un período crítico. La ventaja de EE. UU. respecto a China en el desarrollo de la IA parece menor de lo que se suponía anteriormente, lo que cuestiona las estrategias basadas en mantener la superioridad tecnológica. Esta situación exige nuevas prioridades, incluyendo un mayor enfoque en las comunicaciones orientadas a la derecha, una relación más profunda con la administración de Trump y el desarrollo de propuestas de políticas que estén alineadas con los intereses republicanos. Si bien algunos enfoques tradicionales —como la colaboración con la UE y el Reino Unido y la gobernanza del poder de cómputo— siguen siendo relevantes, su eficacia podría verse disminuida. Los acontecimientos antedichos también destacan la creciente importancia de que los principales laboratorios de IA cuenten con investigadores que sean conscientes de la seguridad, aunque el valor de este enfoque es objeto de debate. Estos cambios se producen en un contexto de plazos potencialmente muy cortos para la IAG, lo que aumenta la urgencia de los ajustes estratégicos.
    Más Menos
    36 m
  • Jaime Sevilla sobre las tendencias en los modelos de inteligencia artificial
    Mar 7 2025
    En esta entrevista, Jaime Sevilla, director de Epoch AI, analiza la evolución y el futuro del escalado de los modelos de inteligencia artificial. Sevilla explica los tres factores clave que determinan las capacidades de los modelos: poder de cómputo, datos y eficiencia algorítmica, así como las tres eras del aprendizaje automático identificadas por Epoch. La conversación aborda las leyes de escalado de los modelos, los posibles cuellos de botella futuros (energía, chips, escasez de datos y el muro de latencia), y las implicaciones económicas y sociales de estas tendencias para el futuro de la humanidad.
    Más Menos
    1 h y 16 m
  • Seis ideas sobre la seguridad de la IA
    Mar 1 2025
    Este texto presenta seis argumentos clave sobre la seguridad de la IA: la seguridad no se resolverá sola, un científico de la IA por sí solo no puede arreglarla, la alineación debe centrarse en el cumplimiento más que en los valores humanos, la detección importa más que la prevención, la interpretabilidad no es crucial para la alineación y la humanidad puede sobrevivir a una superinteligencia no alineada. El autor hace más hincapié en los enfoques prácticos que en las soluciones teóricas y aboga por la aplicación de medidas de seguridad sólidas en todas las fases de desarrollo de la IA.
    Más Menos
    46 m
adbl_web_global_use_to_activate_T1_webcro805_stickypopup