¡Hola y bienvenidos a Eye on AI! Si has pasado algún tiempo en las redes sociales durante el último mes más o menos, es probable que hayas visto videos de neoyorquinos burlándose del nuevo "robocop" de la NYPD que ahora patrulla la estación de metro de Times Square. Con una altura de 5 pies y 3 pulgadas, y moviéndose como un compañero tonto en Star Wars, el robot K5 de Knightscope, impulsado por la inteligencia artificial de Nvidia, ciertamente es un blanco fácil para las burlas.

Pero aunque es posiblemente el ejemplo más evidente de cómo las agencias de aplicación de la ley están utilizando la tecnología de IA para el policiamiento, el K5 es solo la punta de un iceberg mucho más discreto. La policía en todo el país y en el mundo están utilizando cada vez más sistemas de IA que, sin tener un atractivo memético, es probable que pasen desapercibidos, pero podrían tener consecuencias mucho más importantes. La semana pasada, informes tanto en The Markup como en 404 Media revelaron más sobre estas herramientas y cómo la policía está utilizando la IA. El interés de la policía por la IA no es algo nuevo, pero claramente está aumentando con el reciente auge de la IA.

El informe de Ese Olumhense sobre "Cop Con" en The Markup fue particularmente esclarecedor. Asistió a la conferencia en San Diego, oficialmente llamada la Conferencia de la Asociación Internacional de Jefes de Policía (IACP), donde casi 700 proveedores mostraron su nueva tecnología para el policiamiento a más de 16,000 asistentes. Los asistentes eran en su mayoría funcionarios encargados de hacer cumplir la ley no solo de Estados Unidos, sino también de países como Arabia Saudita, Japón, Brasil, Canadá, Jamaica, Indonesia, Irlanda, República Dominicana, Reino Unido y muchos más.

Olumhense informa que la tecnología que vio en su mayoría se dividió en tres categorías. Había herramientas robóticas como drones y robots policiales, como un dron que puede llevar una herramienta para romper ventanas. También había tecnologías emergentes y mejoradas de vigilancia, como lectores automáticos de matrículas. Y por último, mucha IA.

"La inteligencia artificial y los productos algorítmicos fueron, predeciblemente, algunas de las herramientas que más vi", escribió en The Markup. Por ejemplo, vio empresas anunciando algoritmos de análisis de voz que afirman detectar riesgos de fraude basados ​​en el habla, así como varias herramientas que supuestamente pueden recopilar y analizar datos para generar conocimientos, incluidos datos de las redes sociales, sistemas de cárceles, transmisiones de video y registros judiciales.

Sin embargo, la tecnología de reconocimiento facial llamativamente estaba ausente en la conferencia.

"No lo vi mencionado con tanta frecuencia en los paneles. La gente simplemente no lo estaba tocando", dijo Dave Maass, director de investigaciones de la organización sin fines de lucro Electronic Frontier Foundation, quien ha asistido a tres conferencias de la IACP, a The Markup en otra versión de la historia. "Y no estoy seguro de si es porque la tecnología se ha vuelto bastante tóxica en el discurso público, si no es tan útil y no ha cumplido las promesas; quién sabe, pero a la gente no le interesaba".

De hecho, se ha demostrado que la tecnología de reconocimiento facial es tanto racialmente sesgada como frecuentemente incorrecta. Según Associated Press, New York Times y muchos otros informes recientes, varios afroamericanos ya han sido arrestados e incluso encarcelados erróneamente basándose únicamente en coincidencias inexactas de reconocimiento facial.

Más allá de la tecnología emergente a la que la policía está observando y comprando, un nuevo informe de 404 Media descubrió un 'sistema impulsado por IA que está surgiendo rápidamente en pequeñas ciudades de América y grandes ciudades por igual'. Básicamente, el sistema permite a las fuerzas del orden vincular todas las cámaras de seguridad de una ciudad, incluidas aquellas que son propiedad del gobierno y las cámaras privadas de empresas y hogares, en un solo centro central.

'El producto de Fusus no solo agrupa los feeds en vivo de cámaras generalmente aisladas en una ubicación central, sino que también agrega la capacidad de buscar personas que lleven ciertas prendas, que lleven una bolsa en particular o que busquen un vehículo específico', dice el artículo, que también menciona la falta de políticas claras, registros de acceso auditables y transparencia comunitaria sobre las capacidades y los costos del sistema.

Especialmente con los sesgos raciales probados de la IA, el uso y posible mal uso de la tecnología para la vigilancia ha sido una parte fundamental de la conversación sobre la IA durante años. A medida que la comunidad tecnológica y ahora los gobiernos y la población en general debaten la necesidad de centrarse en los riesgos a corto y largo plazo de la IA, la preocupación por la vigilancia y la probabilidad de que la IA exacerbe los sesgos raciales ya rampantes en la policía no es solo a corto plazo, sino que se está desarrollando rápidamente en este momento.

En su orden ejecutiva sobre IA la semana pasada, el presidente Joe Biden incluyó una instrucción para 'garantizar la equidad en todo el sistema de justicia penal mediante el desarrollo de mejores prácticas en el uso de la IA en la sentencia, la libertad condicional y la libertad anticipada, la liberación y detención previas al juicio, las evaluaciones de riesgo, la vigilancia, la predicción del delito y la policía predictiva, y el análisis forense'. Si bien esto es solo una directiva y no tiene el poder de una legislación, su inclusión en la orden es importante. También vale la pena señalar que, de la 'oleada' de leyes estatales sobre IA aprobadas, propuestas y que entrarán en vigencia este año, ninguna aborda explícitamente la vigilancia policial o el cumplimiento de la ley. Pero está claro que los gobiernos recién están comenzando.

Nota de programación: Obtenga información vital sobre cómo la tecnología más poderosa y de mayor alcance de nuestro tiempo está cambiando los negocios, transformando la sociedad e impactando nuestro futuro. Únase a nosotros en San Francisco del 11 al 12 de diciembre para la tercera conferencia anual Brainstorm A.I. de Fortune. Los oradores confirmados incluyen destacadas personalidades de la IA como la GM de Google Assistant y Google Bard, Sissie Hsiao, la Directora Principal de Privacidad y Confianza de IBM, Christina Montgomery, el SVP y CTO Internacional de Walmart, Sravana Karnati, el Director Digital y de Tecnología de Pfizer, Lidia Fonseca, y muchos más. ¡Solicite su asistencia hoy mismo!

Y con eso, aquí está el resto de las noticias sobre IA de esta semana.

Sage Lazzaro[email protected]sagelazzaro.com

IA EN LAS NOTICIAS

OpenAI presenta GPT-4 Turbo, la capacidad de crear modelos personalizados y más

La empresa anunció una tonelada de nuevos modelos, capacidades y productos para desarrolladores el lunes en su conferencia del Día del Desarrollador. Entre los aspectos más destacados se incluyen: un nuevo modelo GPT-4 Turbo que, según la empresa, es más capaz y menos costoso; GPTs, una forma para que cualquiera pueda crear versiones personalizadas de ChatGPT para sus propios fines; y Assistants API, diseñada para ayudar a los desarrolladores a integrar "asistentes" en sus propias aplicaciones.

Un juez del Tribunal de Distrito de los Estados Unidos desestima la demanda por infracción de derechos de autor de los artistas contra Midjourney y DeviantArt, pero avanza el caso contra StabilityAI. Esto según informa The Hollywood Reporter. El juez concluyó que las reclamaciones son "defectuosas en numerosos aspectos", siendo uno de los principales problemas si los sistemas de inteligencia artificial realmente contienen copias de las imágenes con derechos de autor. Sin embargo, se permitió que la demanda por infracción directa contra Stability AI continuara basada en las acusaciones de que la empresa utilizó y almacenó las imágenes con derechos de autor, no solo los datos relativos a las imágenes, sin permiso para crear Stable Diffusion.

01.AI de Kai-Fu Lee lanza su primer LLM, un modelo abierto que opera tanto en inglés como en chino. El destacado científico de la computación e inversor afirmó a TechCrunch que la decisión de introducir un LLM abierto en el mercado chino es una forma de "devolver" a la sociedad y que está proporcionando "una alternativa convincente" al LLaMA de Meta. Señaló que China no tiene acceso a OpenAI y Google. Lee espera que la empresa, valorada en 1000 millones de dólares, sea el equivalente de China a OpenAI.

Microsoft hace que su LLM Phi 1.5 sea "multimodal", demostrando las capacidades de los modelos pequeños. Esto según Semafor. La nueva capacidad significa que Phi 1.5 ahora puede ver e interpretar imágenes, lo que le brinda algunas de las mismas características que el masivo GPT-4 pero con una fracción del consumo de energía, la potencia de procesamiento y los parámetros, 1.3 mil millones en comparación con los 1.7 billones de parámetros de GPT-4. Los investigadores de Microsoft afirman que este es un gran avance que muestra que los LLM más pequeños como Phi 1.5 pueden tener las mismas características que sus contrapartes masivas y ofrece una hoja de ruta para democratizar el acceso y aliviar la escasez de GPU.

Snowflake anuncia un conjunto de herramientas GenAI para su plataforma. Llamado Snowflake Cortex, el servicio totalmente gestionado permite a los usuarios de la plataforma de gestión de datos utilizar sus LLM personalizados para analizar más fácilmente sus datos y construir aplicaciones, según la publicación de blog de la empresa. Las características específicas incluyen Snowflake Copilot (un asistente con el que los usuarios pueden interactuar en lenguaje natural), Universal Search (búsqueda impulsada por LLM para facilitar la interacción con los datos almacenados en Snowflake) y Document AI (una capacidad de extracción de datos que permite a los usuarios procesar cualquier documento y obtener respuestas a sus preguntas).

LinkedIn anuncia un "entrenador de búsqueda de empleo" AI para ayudarte a conseguir un nuevo puesto. Potenciado por GPT-4, el nuevo chatbot de la compañía propiedad de Microsoft comenzó a estar disponible para usuarios premium la semana pasada y cuenta con una variedad de capacidades destinadas a ayudar a los candidatos a determinar si son adecuados para un trabajo y cómo posicionarse de la mejor manera.

Los usuarios pueden iniciar el chatbot desde un anuncio de empleo y solicitarle que analice su perfil y ofrezca sugerencias, según el post del blog de la compañía.

INVESTIGACIÓN SOBRE IA

IA para el corazón. La American Heart Association publicó ayer dos estudios preliminares que mostraron que la IA puede detectar con precisión enfermedades de las válvulas cardíacas y predecir el riesgo cardiovascular. En un estudio, realizado en tres clínicas de atención primaria diferentes en los Estados Unidos, se encontró que un programa de IA que evaluaba datos de sonido de un estetoscopio detectaba el 94.1% de los casos de enfermedad valvular cardíaca, en comparación con una tasa de detección del 41.2% por parte de profesionales médicos que utilizaban un estetoscopio estándar.

En un segundo estudio, realizado por un grupo de investigación diferente que utilizó datos del U.K. Biobank, un programa de aprendizaje profundo demostró ser efectivo al analizar imágenes de retina como herramienta de detección temprana de enfermedades cardíacas en grupos de alto riesgo, como personas con prediabetes y diabetes tipo 2.

Estos estudios son preliminares y tienen limitaciones, pero podrían indicar un camino hacia diagnósticos más tempranos y precisos. Los hallazgos de ambos se presentarán la próxima semana en las Sesiones Científicas 2023 de la American Heart Association en Filadelfia. Puede leer más sobre los estudios aquí.

FORTUNE SOBRE IA

La startup de IA de Elon Musk está a punto de lanzar su tecnología a un "grupo selecto" y él dice que es "la mejor que existe" en el mercado —Chloe Taylor

Elon Musk destaca el "acceso en tiempo real a X" como una "enorme ventaja" para su rival ChatGPT, Grok, después de amenazar con demandar a Microsoft por usar datos de Twitter para el entrenamiento de IA —Steve Mollman

Conoce a Grok: el bot de IA de Elon Musk tiene "un poco de ingenio y un espíritu rebelde" mientras se enfrenta a ChatGPT —Eleanor Pringle

Tim Cook sigue dando la misma respuesta sobre los planes de Apple en cuanto a la IA generativa, y no está dejando satisfechos a los inversores —Rachyl Jones

En la carrera de la IA, la cofundadora y CEO de Canva, Melanie Perkins, no cree en "reinventar la rueda" —Emma Hinchliffe y Joseph Abrams

Un bot de IA realizó operaciones de intercambio de información privilegiada y engañó a sus usuarios después de decidir que ayudar a una empresa valía la pena el riesgo —Ryan Hogg

BRAINFOOD

AI.gov. No podríamos terminar el boletín de esta semana sin retomar los acontecimientos en materia de políticas de IA. El "World Cup of AI policy" de la semana pasada, compuesto por la orden ejecutiva de la administración Biden, la reunión del G7 y la Cumbre de Seguridad de IA en el Reino Unido, tuvo un impacto real y ahora tenemos más información específica sobre los resultados, además de otros avances en las políticas de IA.

En la cumbre del Reino Unido, la vicepresidenta de Estados Unidos, Kamala Harris, hizo seguimiento a la orden ejecutiva de Biden al anunciar un Instituto de Seguridad de IA para proteger a los consumidores estadounidenses. Esto ocurrió después de que 21 legisladores estadounidenses publicaran una carta instando a Harris a promover específicamente los derechos civiles en la cumbre. En general, la Cumbre de Seguridad de IA del Reino Unido culminó con la firma de la "Declaración de Bletchley" por parte de 28 países, un acuerdo que establece una idea compartida sobre la necesidad urgente de comprender y gestionar colectivamente los posibles riesgos de la IA.

El Primer Comité de la Asamblea General de la ONU aprobó una nueva resolución en la que expresa su preocupación acerca de los sistemas de armas autónomas letales.

De vuelta en los Estados Unidos, la Oficina de Administración y Presupuesto de los EE. UU. publicó para su comentario una política en borrador sobre cómo las agencias federales deben adoptar, adquirir y usar la IA. El Instituto Nacional de Estándares y Tecnología del Departamento de Comercio de los EE. UU. además solicitó la participación de interesados en un nuevo consorcio para apoyar el desarrollo de métodos de evaluación de sistemas de IA.

Además, el gobierno de los Estados Unidos está trabajando en una nueva política de IA para mejorar la calidad y la seguridad.

El Subcomité de la Cámara sobre Ciberseguridad, Tecnología de la Información e Innovación Gubernamental anunció una audiencia sobre los daños y las posibles consecuencias del avance de la tecnología deepfake, la cual será transmitida en vivo al público mañana a las 2 p.m. hora del este.

Por último, el gobierno de Estados Unidos lanzó AI.gov, un sitio web para mantenerse al día sobre todo lo relacionado con el gobierno y la inteligencia artificial.