Después de tomarme un tiempo libre, volví esta semana para encontrar mi bandeja de entrada inundada de noticias sobre herramientas de IA, problemas, pasos en falso y aventuras. Y lo que destacó fue la gran inversión que se está haciendo en hacer que los chatbots de IA pretendan ser otra persona.

En el caso de Meta, el CEO Mark Zuckerberg amplió el elenco de personajes de IA con los que los más de 3 mil millones de usuarios del gigante tecnológico pueden interactuar en las populares plataformas de Meta como Facebook, Instagram, Messenger y WhatsApp. Estos personajes están basados en celebridades, deportistas y artistas de la vida real, incluyendo al músico Snoop Dogg, la famosa Kylie Jenner, el ex mariscal de campo Tom Brady, la estrella del tenis Naomi Osaka, otra famosa Paris Hilton y la célebre escritora inglesa Jane Austen.

"Los personajes son una forma para que las personas se diviertan, aprendan cosas, hablen de recetas o simplemente pasen el tiempo, todo dentro del contexto de conectar con amigos y familiares", dijeron ejecutivos de la compañía a The New York Times sobre todos estos amigos de mentira con los que ahora puedes conversar.

Zuckerberg añadió: "La gente no va a querer interactuar con una sola IA superinteligente, sino que querrán interactuar con varias diferentes".

Pero no finjamos que los amigos de mentira son solo para ayudarte a conectar con la familia y los amigos. Como sabemos, todo se trata del dinero, y en este momento las compañías de tecnología están en una lucha por el dominio que enfrenta a Meta contra otros gigantes de la IA, como ChatGPT de OpenAI, Bing de Microsoft y Bard de Google. Es un punto que también destacó The Times: "Para Meta, la amplia aceptación de sus nuevos productos de IA podría aumentar significativamente la participación en sus muchas aplicaciones, la mayoría de las cuales dependen de la publicidad para ganar dinero. Más tiempo pasado en las aplicaciones de Meta significa más anuncios mostrados a sus usuarios".

Cabe destacar que Meta no fue el primero en encontrar la idea de crear personalidades o personajes para darle un rostro humano a los chatbots de IA conversacionales (véase ELIZA, que nació a finales de los años 60). Y parece que esta estrategia es efectiva.

Character.ai, que tiene dos años y te permite interactuar con chatbots basados en personas famosas como Taylor Swift y Albert Einstein, y personajes ficticios como Mario de Nintendo, es uno de los sitios de IA más visitados y, según Bloomberg, está buscando financiamiento que valoraría a la startup en 5.000 millones a 6.000 millones de dólares. Esta semana, Character.ai, que también te permite crear tus propios chatbots basados en la personalidad, presentó una nueva función para suscriptores llamada Character Group Chat, que te permite chatear con varios personajes de IA al mismo tiempo tú y tus amigos.

(Ahora tienes la oportunidad de agregar a Swift y Mario a tus chats en grupo.)

Pero utilizar personas famosas para promocionar la IA solo es divertido si esas personas están involucradas, y me refiero a que se les pague por sus avatares de IA. A principios de este mes, el actor Tom Hanks advirtió a la gente sobre un anuncio dental que utilizaba su imagen sin su autorización. "¡Cuidado!" Hanks le dijo a sus 9.5 millones de seguidores en Instagram. "Hay un video promocionando un plan dental con una versión de IA de mí. Yo no tengo nada que ver con eso."

Hanks en un podcast de abril predijo los peligros planteados por la IA. "En este momento, si quisiera, puedo reunirme y proponer una serie de siete películas en las que yo sería el protagonista y tendría 32 años desde ahora hasta el fin de los tiempos. Cualquiera puede recrearse a sí mismo a cualquier edad mediante la IA o la tecnología deepfake... Te puedo decir que hay discusiones en todos los gremios, en todas las agencias y en todos los bufetes de abogados para establecer las implicaciones legales de mi cara y mi voz, y la de todos los demás, como nuestra propiedad intelectual."

Por supuesto, tenía razón acerca de todas esas discusiones. El Writers Guild of America acaba de poner fin a la huelga de escritores con Hollywood después de llegar a un acuerdo sobre el uso de la IA en el cine y la televisión. Pero los actores, representados por SAG-AFTRA, siguen luchando, y uno de los puntos clave es el uso de "réplicas digitales."

Aquí están los otros acontecimientos relacionados con la IA que merecen tu atención.

ChatGPT ahora puede oír y hablar, pero por un precio

OpenAI está implementando nuevas capacidades de voz e imagen en ChatGPT que te permiten "tener una conversación de voz o mostrar a ChatGPT de qué estás hablando". Las nuevas capacidades están disponibles para las personas que pagan por usar el chatbot (ChatGPT Plus cuesta $20 al mes).

Dice la compañía: "Toma una foto de un punto de referencia mientras viajas y ten una conversación en vivo sobre lo interesante que es. Cuando estés en casa, toma fotos de tu nevera y despensa para averiguar qué hay para cenar (y haz preguntas adicionales para obtener una receta paso a paso). Después de la cena, ayuda a tu hijo con un problema de matemáticas tomando una foto, rodeando el conjunto de problemas y compartiendo pistas con ambos".

Entonces, ¿cómo es hablar con ChatGPT? La revisora del Wall Street Journal, Joanna Stern, lo describe como similar a la película "Her", en la que Joaquin Phoenix se enamora de un sistema operativo de IA llamado Samantha, con voz de Scarlett Johansson.

"La voz natural, el tono conversacional y las respuestas elocuentes son casi indistinguibles de un humano en ocasiones", escribe Stern. "Pero definitivamente estás hablando con una máquina. El tiempo de respuesta... puede ser extremadamente lento y la conexión puede fallar, reiniciar la aplicación ayuda. Algunas veces, la conversación se corta abruptamente (¡pensé que solo los humanos groseros hacían eso!)"

¿Una IA grosera? Tal vez los chatbots se están volviendo más humanos después de todo.

Adiós, grupos de enfoque humanos; hola, humanos sintéticos

Hablando de IA más parecidas a los humanos, una empresa llamada Fantasy está creando "humanos sintéticos" para clientes como Ford, Google, LG y Spotify, para ayudarles a "conocer las audiencias, reflexionar sobre conceptos de productos e incluso generar nuevas ideas", según informó Wired.

"Fantasy utiliza el tipo de tecnología de aprendizaje automático que alimenta a chatbots como ChatGPT de OpenAI y Bard de Google para crear sus humanos sintéticos", afirmó Wired. "La empresa otorga a cada agente decenas de características extraídas de investigaciones etnográficas sobre personas reales, alimentándolas en modelos de lenguaje grandes comerciales como GPT de OpenAI y Claude de Anthropic. Sus agentes también pueden configurarse para tener conocimientos sobre líneas de productos o negocios existentes, de manera que puedan conversar sobre las ofertas de un cliente."

Los seres humanos no quedan completamente excluidos. Fantasy le dijo a Wired que para la compañía petrolera y gasista BP, han creado grupos de enfoque conformados tanto por personas reales como por humanos sintéticos, y les han pedido que discutan un tema o idea de producto. ¿El resultado? "Mientras que un ser humano puede cansarse de responder preguntas o no querer responder de muchas formas, un humano sintético puede continuar", dijo Roger Rohatgi, jefe global de diseño de BP, a la publicación.

Entonces, el objetivo final puede ser simplemente hacer que los bots hablen entre ellos. Pero hay un problema: entrenar personajes de IA no es tarea fácil. Wired habló con Michael Bernstein, profesor asociado de la Universidad de Stanford, quien ayudó a crear una comunidad de chatbots llamada Smallville, y parafraseó sus palabras de la siguiente manera:

"Cualquiera que espere utilizar IA para modelar a los seres humanos reales, debe cuestionar cuán fielmente los modelos de lenguaje reflejan realmente el comportamiento real. Los personajes generados de esta manera no son tan complejos o inteligentes como las personas reales y tienden a ser más estereotipados y menos variados que la información muestreada de poblaciones reales. Cómo hacer que los modelos reflejen más fielmente la realidad sigue siendo una 'pregunta de investigación abierta'".

Por qué importan la ética y la confianza

Deloitte actualizó su informe sobre el "Estado de la Ética y la Confianza en la Tecnología" para 2023, y puedes descargar el informe de 53 páginas aquí.

Vale la pena leerlo, aunque sea como recordatorio de que la forma en que las herramientas y sistemas de IA se desarrollan, implementan y utilizan depende completamente de nosotros, los seres humanos.

¿La conclusión de Deloitte? Las organizaciones deberían "desarrollar principios confiables y éticos para las tecnologías emergentes" y trabajar de manera colaborativa con "otras empresas, agencias gubernamentales y líderes de la industria para crear regulaciones uniformes y éticamente sólidas para las tecnologías emergentes".

Y si no lo hacen? Deloitte enumera los daños causados por errores éticos, incluyendo daño reputacional, daño humano y sanciones regulatorias. El investigador también descubrió que el daño financiero y la insatisfacción de los empleados van de la mano. "El comportamiento no ético o la falta de atención visible a la ética pueden disminuir la capacidad de una empresa para atraer y retener talento. Un estudio encontró que los empleados de empresas involucradas en violaciones éticas perdieron un promedio del 50% de sus ingresos acumulativos en la siguiente década en comparación con los trabajadores de otras empresas".

El investigador también encontró que el 56% de los profesionales no están seguros de si sus empresas tienen pautas éticas para el uso de la inteligencia artificial, según un resumen de los hallazgos del sitio hermano de CNET, ZDNET.

Trabajando en los márgenes de la cirugía cerebral

Uno de los desafíos en la extracción de tumores cerebrales es que los cirujanos determinen cuánto alrededor de los márgenes del tumor necesitan remover para asegurarse de haber extirpado todo lo malo. Es un negocio complicado, por decir lo menos, porque necesitan lograr un "delicado equilibrio entre maximizar la extensión de la resección y minimizar el riesgo de daño neurológico", según un nuevo estudio.

Ese informe, publicado en Nature esta semana, ofrece noticias sobre un avance fascinante en la detección de tumores, gracias a una red neuronal de inteligencia artificial. Científicos en los Países Bajos desarrollaron un sistema de aprendizaje profundo llamado Sturgeon que tiene como objetivo ayudar a los cirujanos a encontrar ese equilibrio delicado al ayudar a obtener un perfil detallado del tumor durante la cirugía.

Puedes leer el informe de Nature, pero compartiré el resumen en inglés simple proporcionado por Benjamin Mueller, escritor científico del New York Times: "El método implica un escaneo informático de segmentos del ADN de un tumor y se enfoca en ciertas modificaciones químicas que pueden brindar un diagnóstico detallado del tipo e incluso subtipo del tumor cerebral. Ese diagnóstico, generado durante las etapas iniciales de una cirugía que dura horas, puede ayudar a los cirujanos a decidir qué tan agresiva debe ser la operación".

En pruebas realizadas en muestras tumorales congeladas de operaciones previas de cáncer cerebral, Sturgeon diagnosticó con precisión 45 de 50 casos en un plazo de 40 minutos desde el inicio de esa secuenciación del ADN, según el Times. Y luego se probó durante 25 cirugías cerebrales en vivo, la mayoría de las cuales se realizaron en niños, y ofreció 18 diagnósticos correctos.

El Times señaló que algunos tumores cerebrales son difíciles de diagnosticar y que no todos los cánceres pueden diagnosticarse mediante las modificaciones químicas que analiza el nuevo método de inteligencia artificial. Aun así, es alentador ver lo que podría ser posible con las nuevas tecnologías de inteligencia artificial a medida que continúa la investigación.

Palabra de la semana de IA: IA

Teniendo en cuenta todo lo mencionado anteriormente sobre cómo se utilizan las IA para crear versiones ficticias de personas reales (sin mencionar a Super Mario), la palabra que elegiría para esta semana sería "antropomorfismo", que se refiere a atribuir cualidades humanas a cosas no humanas. Pero ya hablé de eso en el artículo de agosto.

Edición 19 de IA y tú.

Entonces, en su lugar, expongo la definición de "inteligencia artificial" del Consejo de Europa:

Un conjunto de ciencias, teorías y técnicas cuyo propósito es reproducir mediante una máquina las habilidades cognitivas de un ser humano. Los avances actuales buscan la capacidad de confiar a una máquina tareas complejas previamente delegadas a un ser humano.

Sin embargo, el término inteligencia artificial es criticado por expertos que distinguen entre la inteligencia artificial "fuerte" (capaz de contextualizar problemas especializados muy diferentes de manera completamente independiente) y la inteligencia artificial "débil" o "moderada" (que se desempeña extremadamente bien en su campo de entrenamiento). Según algunos expertos, la inteligencia artificial "fuerte" requeriría avances en la investigación básica para poder modelar el mundo en su conjunto y no solo mejoras en el rendimiento de los sistemas existentes.

A modo de comparación, aquí está el Departamento de Estado de EE. UU. que cita la Ley Nacional de Inteligencia Artificial de 2020:

El término "inteligencia artificial" se refiere a un sistema basado en máquina que puede, para un conjunto determinado de objetivos definidos por los humanos, hacer predicciones, recomendaciones o decisiones que influyen en entornos reales o virtuales.

Nota de los editores: CNET utiliza un motor de IA para ayudar a crear algunas historias. Para más información, consulta este artículo.