Arrancar la IA desde la nube o en tu móvil: Samsung ilustra una disyuntiva que afecta a todos
Los nuevos plegables de Samsung, presentados este verano, ejecutan algunas funciones de inteligencia artificial por sí mismos. Para otras, recurren a la nube. Una diferenciación que todos los fabricantes deberán hacer y que afecta a la privacidad, los costes o el medio ambiente
Generación y modificación de imágenes, borrado de objetos en fotografías, redacción de textos, generación de vídeos… La nueva hornada de móviles de gama alta llega cargada de inteligencia artificial. Y poco tardará esta tendencia en permear a otros modelos más modestos que están por venir. En este punto, la industria se enfrenta a una disyuntiva: procesar todas estas tareas en la nube o en el propio dispositivo.
El caso ...
Generación y modificación de imágenes, borrado de objetos en fotografías, redacción de textos, generación de vídeos… La nueva hornada de móviles de gama alta llega cargada de inteligencia artificial. Y poco tardará esta tendencia en permear a otros modelos más modestos que están por venir. En este punto, la industria se enfrenta a una disyuntiva: procesar todas estas tareas en la nube o en el propio dispositivo.
El caso de Samsung y sus últimos smartphones plegables, los Galaxy Z Fold 6 y Flip 6, ilustra la disyuntiva. La firma coreana presentó este verano sus nuevos terminales y con ellos anunció nuevas tareas basadas en inteligencia artificial. Pero no todas funcionan de la misma forma. Algunas se procesan en el propio dispositivo, mientras que otras recurren a la nube. Las primeras se resuelven con los recursos del smartphone, pero en las segundas la información viaja a través de Internet a un centro de datos, donde unos servidores ejecutan la tarea y envían el resultado al teléfono.
Para este tipo de funciones IA que se procesan en la nube, Samsung ha especificado una cláusula: serán gratuitas hasta finales de 2025. ¿Por qué? “Hemos redactado esta disposición por una razón sencilla. Somos suficientemente humildes para reconocer que no sabemos qué va a pasar”, apunta Patrick Chomet, responsable de Experiencia de Cliente en Samsung Electronics.
El procesamiento de tares de IA en la nube no es en absoluto gratuito. Necesita importantes recursos de computación y esto tiene un gasto energético elevado. En febrero de 2023, cuando ChatGPT apenas había salido del cascarón, la firma analista SemiAnalysis publicó un estudio sobre los posibles costes de la IA. En ellos calculaba que una consulta a ChatGPT costaría alrededor de 36 céntimos de dólar. Y aquí solo hablamos de texto, porque el servicio no trabajaba aún con imágenes, cuya generación encarece los costes de procesamiento. Por entonces —la aplicación de OpenAI ya había anunciado que sobrepasaba los 100 millones de usuarios— operar ChatGPT le supondría a su creadora de unos 700.000 dólares al día.
A falta de saber si los usuarios de smartphone utilizaremos compulsivamente estas funciones de IA, con el consiguiente coste asociado, o si estos servicios se podrán rentabilizar en el futuro, Samsung actúa con cautela. “En la cámara hay muchas funciones que se ejecutan en el dispositivo, como el retrato [aplicar a una foto de un rostro un estilo de animación 3D o acuarela] o la de borrar objetos. Si quieres hacer algo avanzado, como pasar de boceto a imagen o editar vídeos, esto se hace en la nube. Y no sabemos cómo va a utilizar la gente todo esto. En dos o tres años, en base a cómo se comporten los usuarios, lo sabremos”, explica Chomet. El directivo no descarta la posibilidad de que algunas funciones de IA generativa requieran una suscripción en el futuro.
Favorecer el procesamiento local
El procesamiento de tareas de IA en centros de datos aumenta sin freno. En 2023, el mercado de inteligencia artificial en la nube tenía un valor de 62.630 millones de dólares, según la firma de análisis Grand View Research. Para 2030 se estima que alcanzará los 646.600 millones de dólares, a un ritmo de crecimiento anual del 39,6%.
Pero los fabricantes de smartphones aspiran a que parte de las tareas de IA se ejecuten localmente, con el hardware del propio dispositivo. Para ello se emplea el procesador principal (CPU), el procesador gráfico (GPU) y una unidad especializada para funciones de IA (NPU). Este enfoque tiene sus ventajas. Ofrece una mayor privacidad al usuario, pues los datos no viajan a servidores externos, y la inteligencia artificial funciona sin conexión a Internet.
Sin embargo, cuando la IA se resuelve en la nube, utiliza sistemas más potentes. La precisión es mayor para ciertas tareas, como la generación de imágenes o de textos complejos. A partir de aquí, los fabricantes de smartphones tienen que decidir qué modalidad usan para cada tarea.
Para Samsung el criterio está claro. Si el rendimiento del hardware del smartphone es suficiente, la función no se lleva a la nube. Así, en los Galaxy Z Fold 6 y Flip 6 el compositor de textos, para escribir un email o un post para redes sociales, trabaja localmente. Pero la generación de imágenes a partir de una fotografía o la traducción en tiempo real de una llamada necesitan procesamiento online.
“Los dos elementos que tenemos en cuenta son el rendimiento y la privacidad”, señala Chomet. “Algunas tareas deben ser muy rápidas y otras deberían funcionar sin la conectividad, como las tareas que tienen que ver con el uso privado de datos personales. Estos dos elementos, rendimiento y privacidad, nos guían para ejecutar las funciones dentro del terminal tanto como sea posible”.
El otro gran fabricante de smartphones, segundo en el mercado en estos momentos, se topa con la misma disyuntiva. Cuando Apple anunció su inteligencia artificial hizo hincapié en que habrá ciertas consultas que se resolverán localmente. Las tareas que necesiten sistemas de IA más potentes viajarán a la nube. Pero solo se enviarán los datos imprescindibles para obtener el resultado, sin que la información se almacene ni sirva para entrenar a los algoritmos. Además, ante algunas peticiones, los dispositivos redirigirán al usuario hacia ChatGPT para obtener una mejor respuesta.
El enfoque híbrido entre procesamiento local y en la nube parece el camino a seguir. Los fabricantes se diferenciarán, eso sí, en el peso que le den a cada una de estas dos opciones. Pero también en cómo las presenten. “Haremos que la gente sepa exactamente qué es lo que no se ejecuta en el dispositivo para que puedan elegir”, añade Chomet.
El enorme gasto energético del procesamiento de la IA en la nube también plantea otro dilema. Y es que cuanto más se utiliza esta tecnología, más se dispara el consumo eléctrico para alimentar a los servidores, y de agua para refrigerarlos. Compañías como Google o Microsoft han publicado aumentos significativos en 2023 de su consumo eléctrico. La primera incluso señalaba en su informe de sostenibilidad anual la voracidad energética de la inteligencia artificial.
Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.