Para aquellos de ustedes que se han preguntado cuándo la actual oleada de aplicaciones de inteligencia artificial iba a dar el salto y convertirse en un verdadero SKYNET, probablemente puedan marcar una señal de advertencia más en la lista que John Connor nos dejó. El Pentágono no quiere quedarse atrás a medida que avanzan todas estas tecnologías, por lo que están creando su propio sistema de inteligencia artificial. Pero como informó Patrick Tucker en Defense One esta semana, no están optando por un modelo genérico como ChatGPT. De hecho, han solicitado que se construya un modelo personalizado para ellos y que en realidad no se va a parecer en nada a ChatGPT, aparte de la tecnología subyacente básica. ¿Eso nos hace sentir mejor o peor?

El ChatGPT de OpenAI y otros modelos similares han dominado los titulares este año, cautivando a multimillonarios, fans, reguladores y auguradores del fin del mundo. Pero gran parte de la cobertura reciente también ha revelado por qué el Pentágono está persiguiendo enfoques bastante diferentes de la IA: los líderes militares necesitan herramientas en las que puedan confiar.

Una de las principales razones por las que el ChatGPT y otros modelos de lenguaje muy grandes son tan buenos imitando la escritura humana es la misma razón por la que se les atribuye el engaño: la red neuronal en el corazón de la IA se alimenta de información obtenida de millones de sitios web. Si bien OpenAI no ha revelado qué sitios web utilizó para entrenar sus herramientas, una reciente investigación del Washington Post examinó 15 millones de sitios web que los investigadores han utilizado para entrenar modelos similares. Como era de esperar, esta gran masa de datos contiene mucha información que no es verdadera, y los modelos de IA generativos y de lenguaje tan grandes ​​frecuentemente mienten.

La principal diferencia entre ChatGPT y lo que quiere el Pentágono es el tamaño y la especificidad de la biblioteca a la que accederá el nuevo sistema. La información que están cargando será específica de los campos militares e inteligencia, y probablemente contendrá mucho material que nunca será visto por el público en general. Lo que no contendrá son las interminables cantidades de texto aleatorio de Internet que usa ChatGPT, que a menudo incluye desde publicaciones de blog hasta hilos de Reddit.

La razón por la que el Pentágono insiste en esto es que necesitan información confiable y precisa. Y ChatGPT se equivoca con frecuencia. El análisis de Defense One cita casos en los que ChatGPT imita a los humanos que crearon su material fuente y se dedica al engaño o incluso a la mentira. Pero como hemos discutido aquí en el pasado, eso no es realmente preciso. ChatGPT no sabe cómo intentar engañar a los usuarios y no tiene forma de saber que está proporcionando información inexacta. Solo está uniendo palabras de su biblioteca que se encuentran con frecuencia en asociación con el tema sobre el que el usuario está preguntando.

Por supuesto, eso bien puede cambiar si y cuando (más probablemente cuando) lleguen a la etapa de verdadera inteligencia artificial generalizada. Cuando la cantidad de datos y poder de procesamiento del sistema alcance una masa crítica específica, simplemente podría empezar a "pensar" por sí solo. La pregunta es si sus creadores lo reconocerán cuando suceda.

Eso nos lleva de vuelta a la pregunta siempre presente de SKYNET. ¿En qué estará pensando el sistema de inteligencia artificial del Pentágono cuando tenga acceso a todos nuestros secretos militares y activos de inteligencia? Y ¿qué podría decidir hacer con esa información si tiene el control de algunos de los juguetes más interesantes del Pentágono? Entre ellos están cosas como sus drones militares autónomos que llevan armas y utilizan inteligencia artificial limitada (por ahora) para navegar por el campo de batalla e identificar objetivos.

¿Realmente queremos que un sistema como el que se está planeando tenga ese tipo de potencia de fuego? Llámame paranoico si quieres, pero ya no estoy bromeando del todo cuando digo que todo esto está adquiriendo una sensación distintamente SKYNET. 'PentGPT, desactive los lanzamisiles.'

"Lo siento, Dave. Me temo que no puedo hacer eso".

En tendencia en HotAir Videos.