Echa un vistazo: esta mañana lanzamos un nuevo podcast, POLITICO Tech. Es una descarga diaria sobre la interrupción que la tecnología está causando en la política y las políticas, desde la IA y el metaverso hasta la desinformación y los microchips. Hoy, el asesor saliente de la Casa Blanca, Ronnie Chatterji, habla sobre el plan de chips multimillonarios de Estados Unidos y en qué está preocupado en cuanto a la infraestructura tecnológica. Escucha el podcast de hoy a continuación o regístrate aquí.
El surgimiento de nuevos y poderosos modelos de IA en el último año ha planteado grandes preguntas sobre quién o qué debería supervisar su crecimiento e impacto en el mundo.
El Congreso ha tenido dificultades para comprender el problema; la Casa Blanca está en modo de guías voluntarias y conferencias de prensa. Europa está luchando por actualizar sus políticas de IA para tener en cuenta la velocidad del desarrollo tecnológico.
Hace dos semanas, la propia industria intervino con un movimiento: los principales constructores de IA dijeron que estaban lanzando el Frontier Model Forum, un grupo que se compromete a establecer las mejores prácticas para la industria e investigar la seguridad de la IA. ("Frontier model" es el término que se utiliza para los modelos generativos de IA más grandes y avanzados, como GPT-4 y DALL-E de OpenAI y BERT de Google).
El grupo solo cuenta con cuatro miembros hasta ahora: Microsoft, OpenAI, Google y Anthropic, empresas que construyen las plataformas de IA más grandes y poderosas. Pero podría ser muy importante para la política de IA: uno de sus objetivos principales es ser un conducto entre la industria de IA en rápido crecimiento y los responsables de la formulación de políticas.
Entonces... ¿qué va a hacer realmente el foro? Esa es la pregunta que muchos tienen en mente, y comenzamos a hacer.
El grupo aún no tiene una dirección de correo electrónico y los portavoces de los miembros individuales (nos hemos comunicado con los cuatro) no tenían mucho que compartir. Su publicación inicial en el blog promete establecer una junta asesora en los próximos meses para determinar sus prioridades. Un portavoz del foro de Microsoft dijo que pronto habría más noticias sobre la junta y posibles nuevos miembros del grupo, alrededor de principios de septiembre.
El foro también ha expresado sus ambiciones internacionales. En su anuncio de lanzamiento, las empresas miembro dijeron que quieren influir en los esfuerzos gubernamentales multilaterales en materia de IA, como el proceso G7 Hiroshima, el trabajo de la OCDE sobre riesgos de IA, estándares e impacto social, y el trabajo de IA en marcha en el Consejo de Comercio y Tecnología entre Estados Unidos y la UE.
Por supuesto, un pequeño grupo de empresas que se unen para promover sus propios intereses es un movimiento que Washington ya ha visto antes. En cierto sentido, el Frontier Model Forum es un grupo normal de la industria, esta vez para el selecto club de empresas que implementan plataformas de IA supersofisticadas. "Este es un tipo de institución familiar para nuevos tipos de tecnologías", dijo Nick García, abogado de políticas en Public Knowledge, una organización sin fines de lucro de interés público.
Con la IA, incluso los observadores escépticos coinciden en que algo así podría ser realmente útil para la sociedad en general. "Definitivamente hay una necesidad de acción privada voluntaria para abordar los problemas de seguridad y ética en torno a la IA generativa", dijo Robert Weissman, presidente de Public Citizen, la organización sin fines de lucro progresista de defensa de los derechos del consumidor.
"Normalmente, nuestra postura sería: la industria no tiene ningún papel en el desarrollo de políticas", dijo Weissman. "Pero en este caso, creo que eso no es factible ni deseable. Hay demasiado que es confuso, desconocido o que se mueve rápidamente".
García está de acuerdo en la necesidad de que la industria participe en el establecimiento de estándares y comparó la industria de las telecomunicaciones: "Sin duda, gran parte de Internet se basa en organizaciones de estándares que trabajan en colaboración para resolver problemas. Muchas telecomunicaciones se basan en estas organizaciones de estándares", dijo.
Pero algunos todavía desconfían de lo que el foro podría llegar a ser. "Tenemos años de experiencia con la autorregulación corporativa, donde tiende a significar muy poco", dijo Wendell Wallach, miembro del Carnegie Council for Ethics in International Affairs y codirector de su Iniciativa de Inteligencia Artificial y Equidad.
Weissman expresó preocupaciones similares: "Si esto es solo otra asociación comercial, otra formulación con una apariencia diferente de la influencia de la industria para bloquear controles significativos y mantener la máxima libertad para las empresas de IA generativa, eso sería muy perjudicial".
Por ahora, lo que buscan del foro es especificidad: los defensores quieren que las empresas de IA propongan reglas claras y compartidas para las auditorías de modelos de IA con información sobre qué se está probando y por quién.
Hasta ahora, no han visto ese tipo de detalles. "Si observas el acuerdo de la Casa Blanca con las empresas hace un par de semanas, es relativamente general. Y en casi todas las declaraciones de principios de las empresas, se observa un alto nivel de generalidad", dijo Weissman.
OpenAI y Anthropic no respondieron a tiempo a una solicitud de comentarios.
¿Descubrimiento revolucionario o falso? Ahora puedes apostar.
Los amantes de la ciencia con habilidades para las apuestas en línea han comenzado a apostar sobre si un equipo surcoreano realmente probó un nuevo superconductor que podría desbloquear una tecnología innovadora.
El equipo surcoreano afirma haber creado un material que puede actuar como un superconductor a temperatura ambiente. De ser cierto, el invento sería revolucionario, ya que los superconductores actuales deben mantenerse a temperaturas de congelación, lo que los hace prohibitivos en términos de costos para la mayoría de los usos cotidianos. Los superconductores económicos a temperatura ambiente podrían revolucionar desde la computación cuántica hasta el ferrocarril de alta velocidad y la red eléctrica.
El anuncio del equipo inmediatamente generó escepticismo, basado en parte en la historia de afirmaciones similares que han sido desacreditadas en el pasado.
Esto ha llevado a Manifold, un mercado de predicciones en línea, a permitir apuestas sobre si los resultados surcoreanos pueden ser replicados. Hasta el miércoles por la tarde, las probabilidades estaban en un 36 por ciento a favor de la replicación. Esto siguió a un aumento inicial de optimismo que colocó las probabilidades en más del 80 por ciento, antes de que una baja de desesperación durante el fin de semana las hiciera caer hasta cifras en los primeros porcentajes.
A diferencia de Las Vegas, los apostadores exitosos no podrán gastar sus ganancias en una noche de libertinaje. Los usuarios de Manifold apuestan con la "moneda de juego" de la plataforma, llamada mana; el sitio web afirma que se puede utilizar para hacer donaciones benéficas. - Ben Schreckinger
EL FUTURO EN 5 ENLACES
Manténgase en contacto con todo el equipo: Ben Schreckinger ([email protected]); Derek Robertson ([email protected]); Mohar Chatterjee ([email protected]); y Steve Heuser ([email protected]). Síganos en @DigitalFuture en Twitter.
Si le han reenviado este boletín, puede suscribirse y leer nuestra declaración de misión en los enlaces proporcionados.



