El logotipo de IBM se muestra en una pantalla en el piso de la Bolsa de Valores de Nueva York (NYSE) en Nueva York, EE. UU., el 27 de junio de 2018. REUTERS/Brendan McDermid//Foto de archivoSAN FRANCISCO, 11 de julio (Reuters) - International Business Machines (IBM) está considerando el uso de chips de inteligencia artificial diseñados internamente para reducir los costos de operar un servicio de computación en la nube que puso a disposición del público esta semana, dijo un ejecutivo el martes.

The logo for IBM is displayed on a screen on the floor of the NYSE in New York

En una entrevista con Reuters en una conferencia de semiconductores en San Francisco, Mukesh Khare, director general de IBM Semiconductores, dijo que la empresa está contemplando el uso de un chip llamado Unidad de Inteligencia Artificial como parte de su nuevo servicio en la nube "watsonx".

IBM espera aprovechar el auge de las tecnologías de IA generativa que pueden escribir textos similares a los humanos, más de una década después de que Watson, su primer sistema de IA importante, no lograra ganar impulso en el mercado.

Uno de los obstáculos a los que se enfrentó el antiguo sistema de Watson fue los altos costos, que IBM espera abordar esta vez. Khare dijo que el uso de sus propios chips podría reducir los costos del servicio en la nube debido a su alta eficiencia energética.

IBM anunció la existencia del chip en octubre, pero no reveló el fabricante ni cómo se utilizaría.

Khare dijo que el chip es fabricado por Samsung Electronics, que se ha asociado con IBM en investigaciones de semiconductores, y que su empresa está considerando utilizarlo en watsonx.

IBM no tiene una fecha determinada para cuando el chip podría estar disponible para uso de los clientes de la nube, pero Khare dijo que la empresa ya tiene varios miles de chips prototipo en funcionamiento.

IBM se ha unido a otros gigantes tecnológicos como Google de Alphabet y Amazon.com en el diseño de sus propios chips de IA.

Pero Khare dijo que IBM no intentaba diseñar un reemplazo directo para los semiconductores de Nvidia, cuyos chips lideran el mercado en la capacitación de sistemas de IA con grandes cantidades de datos.

En cambio, el chip de IBM tiene como objetivo ser rentable en lo que los expertos de la industria de la IA llaman inferencia, que es el proceso de poner en uso un sistema de IA ya entrenado para tomar decisiones en el mundo real.

"Ahí es donde está el volumen en este momento", dijo Khare. "No queremos ir hacia el entrenamiento en este momento. El entrenamiento es una bestia diferente en términos de cálculo. Queremos ir donde podamos tener el mayor impacto".

Información de Stephen Nellis; Editado por Jamie Freed

Nuestros estándares: Los principios de confianza de Thomson Reuters.