{"id":253999,"date":"2025-11-24T22:43:19","date_gmt":"2025-11-24T22:43:19","guid":{"rendered":"https:\/\/www.europesays.com\/es\/253999\/"},"modified":"2025-11-24T22:43:19","modified_gmt":"2025-11-24T22:43:19","slug":"entrevista-las-tecnologias-que-aportan-inteligencia-a-nivel-de-nube-a-la-ia-en-el-dispositivo-samsung-newsroom-argentina","status":"publish","type":"post","link":"https:\/\/www.europesays.com\/es\/253999\/","title":{"rendered":"[Entrevista] Las Tecnolog\u00edas que Aportan Inteligencia a Nivel de Nube a la IA en el dispositivo \u2013 Samsung Newsroom Argentina"},"content":{"rendered":"<p>En las pel\u00edculas cl\u00e1sicas de ciencia ficci\u00f3n, la IA a menudo se representaba como imponentes sistemas inform\u00e1ticos o servidores masivos. Hoy en d\u00eda, es una tecnolog\u00eda cotidiana, accesible al instante en los dispositivos que las personas sostienen en sus manos. Samsung Electronics est\u00e1 expandiendo el uso de IA en el dispositivo (on-device AI) a trav\u00e9s de productos como smartphones y electrodom\u00e9sticos, permitiendo que la IA se ejecute localmente sin servidores externos ni la nube para experiencias m\u00e1s r\u00e1pidas y seguras.<\/p>\n<p>\u00a0<\/p>\n<p>A diferencia de los sistemas basados en servidor, los entornos en el dispositivo operan bajo estrictas restricciones de memoria y computaci\u00f3n. Como resultado, reducir el tama\u00f1o del modelo de IA y maximizar la eficiencia del tiempo de ejecuci\u00f3n son esenciales. Para abordar este desaf\u00edo, el Centro de IA de Samsung Research est\u00e1 liderando el trabajo en tecnolog\u00edas centrales, desde la compresi\u00f3n de modelos y la optimizaci\u00f3n de software en tiempo de ejecuci\u00f3n hasta el desarrollo de nuevas arquitecturas.<\/p>\n<p>\u00a0<\/p>\n<p>Samsung Newsroom se sent\u00f3 con el Dr. MyungJoo Ham, Master en el AI Center, Samsung Research, para discutir el futuro de la IA en el dispositivo y las tecnolog\u00edas de optimizaci\u00f3n que la hacen posible.<\/p>\n<p>\u00a0<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-full wp-image-24247\" src=\"https:\/\/www.europesays.com\/es\/wp-content\/uploads\/2025\/11\/Samsung-Corporate-On-Device-AI-Dr.-MyungJoo-Ham-Interview_main1.jpg\" alt=\"\" width=\"1000\" height=\"623\"  \/><\/p>\n<p>\u00a0<\/p>\n<p>El Primer Paso Hacia la IA en el Dispositivo<\/p>\n<p>En el coraz\u00f3n de la IA generativa \u2014que interpreta el lenguaje del usuario y produce respuestas naturales\u2014 se encuentran los grandes modelos de lenguaje (Large Language Models \u2013 LLMs). El primer paso para habilitar la IA en el dispositivo es comprimir y optimizar estos modelos masivos para que se ejecuten sin problemas en dispositivos como smartphones.<\/p>\n<p>\u00a0<\/p>\n<p>\u201cEjecutar un modelo altamente avanzado que realiza miles de millones de c\u00e1lculos directamente en un smartphone o laptop agotar\u00eda r\u00e1pidamente la bater\u00eda, aumentar\u00eda el calor y ralentizar\u00eda los tiempos de respuesta, degradando notablemente la experiencia del usuario\u201d, dijo el Dr. Ham. \u201cLa tecnolog\u00eda de compresi\u00f3n de modelos surgi\u00f3 para abordar estos problemas\u201d.<\/p>\n<p>\u00a0<\/p>\n<p>Los LLMs realizan c\u00e1lculos utilizando representaciones num\u00e9ricas extremadamente complejas. La compresi\u00f3n de modelos simplifica estos valores en formatos enteros m\u00e1s eficientes a trav\u00e9s de un proceso llamado cuantificaci\u00f3n. \u201cEs como comprimir una foto de alta resoluci\u00f3n para que el tama\u00f1o del archivo se reduzca, pero la calidad visual permanezca casi igual\u201d, explic\u00f3. \u201cPor ejemplo, convertir c\u00e1lculos de punto flotante de 32 bits a enteros de 8 bits o incluso 4 bits reduce significativamente el uso de memoria y la carga computacional, acelerando los tiempos de respuesta\u201d.<\/p>\n<p>\u00a0<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-full wp-image-24246\" src=\"https:\/\/www.europesays.com\/es\/wp-content\/uploads\/2025\/11\/Samsung-Corporate-On-Device-AI-Dr.-MyungJoo-Ham-Interview_main2.jpg\" alt=\"\" width=\"1000\" height=\"541\"  \/><\/p>\n<p>\u00a0<\/p>\n<p>Una ca\u00edda en la precisi\u00f3n num\u00e9rica durante la cuantificaci\u00f3n puede reducir la precisi\u00f3n general de un modelo. Para equilibrar la velocidad y la calidad del modelo, Samsung Research est\u00e1 desarrollando algoritmos y herramientas que miden y calibran de cerca el rendimiento despu\u00e9s de la compresi\u00f3n.<\/p>\n<p>\u00a0<\/p>\n<p>\u201cEl objetivo de la compresi\u00f3n de modelos no es solo hacer que el modelo sea m\u00e1s peque\u00f1o, sino mantenerlo r\u00e1pido y preciso\u201d, dijo el Dr. Ham. \u201cUtilizando algoritmos de optimizaci\u00f3n, analizamos la funci\u00f3n de p\u00e9rdida del modelo durante la compresi\u00f3n y lo reentrenamos hasta que sus salidas se mantengan cerca de las originales, suavizando las \u00e1reas con grandes errores. Debido a que cada peso del modelo tiene un nivel diferente de importancia, preservamos los pesos cr\u00edticos con mayor precisi\u00f3n mientras comprimimos los menos importantes de manera m\u00e1s agresiva. Este enfoque maximiza la eficiencia sin comprometer la precisi\u00f3n\u201d.<\/p>\n<p>\u00a0<\/p>\n<p>Adem\u00e1s de desarrollar tecnolog\u00eda de compresi\u00f3n de modelos en la etapa de prototipo, Samsung Research la adapta y comercializa para productos del mundo real como smartphones y electrodom\u00e9sticos. \u201cDebido a que cada modelo de dispositivo tiene su propia arquitectura de memoria y perfil de computaci\u00f3n, un enfoque general no puede ofrecer un rendimiento de IA a nivel de nube\u201d, dijo. \u201cA trav\u00e9s de la investigaci\u00f3n impulsada por productos, estamos dise\u00f1ando nuestros propios algoritmos de compresi\u00f3n para mejorar las experiencias de IA que los usuarios pueden sentir directamente en sus manos\u201d.<\/p>\n<p>\u00a0<\/p>\n<p>El Motor Oculto que Impulsa el Rendimiento de la IA<\/p>\n<p>Incluso con un modelo bien comprimido, la experiencia del usuario depende en \u00faltima instancia de c\u00f3mo se ejecuta en el dispositivo. Samsung Research est\u00e1 desarrollando un motor de tiempo de ejecuci\u00f3n de IA (AI runtime engine) que optimiza c\u00f3mo se utilizan la memoria y los recursos de computaci\u00f3n de un dispositivo durante la ejecuci\u00f3n.<\/p>\n<p>\u00a0<\/p>\n<p>\u201cEl tiempo de ejecuci\u00f3n de IA es esencialmente la unidad de control del motor del modelo\u201d, dijo el Dr. Ham. \u201cCuando un modelo se ejecuta en m\u00faltiples procesadores, como la unidad central de procesamiento (CPU), la unidad de procesamiento de gr\u00e1ficos (GPU) y la unidad de procesamiento neuronal (NPU), el tiempo de ejecuci\u00f3n asigna autom\u00e1ticamente cada operaci\u00f3n al chip \u00f3ptimo y minimiza el acceso a la memoria para aumentar el rendimiento general de la IA\u201d.<\/p>\n<p>\u00a0<\/p>\n<p>El tiempo de ejecuci\u00f3n de IA tambi\u00e9n permite que modelos m\u00e1s grandes y sofisticados se ejecuten a la misma velocidad en el mismo dispositivo. Esto no solo reduce la latencia de respuesta, sino que tambi\u00e9n mejora la calidad general de la IA, ofreciendo resultados m\u00e1s precisos, conversaciones m\u00e1s fluidas y un procesamiento de im\u00e1genes m\u00e1s refinado.<\/p>\n<p>\u00a0<\/p>\n<p>\u201cLos mayores cuellos de botella en la IA en el dispositivo son el ancho de banda de la memoria y la velocidad de acceso al almacenamiento\u201d, dijo. \u201cEstamos desarrollando t\u00e9cnicas de optimizaci\u00f3n que equilibran inteligentemente la memoria y la computaci\u00f3n\u201d. Por ejemplo, cargar solo los datos necesarios en un momento dado, en lugar de mantener todo en la memoria, mejora la eficiencia. \u201cSamsung Research ahora tiene la capacidad de ejecutar un modelo generativo de 30 mil millones de par\u00e1metros \u2014t\u00edpicamente de m\u00e1s de 16 GB de tama\u00f1o\u2014 en menos de 3 GB de memoria\u201d, agreg\u00f3.<\/p>\n<p>\u00a0<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-full wp-image-24245\" src=\"https:\/\/www.europesays.com\/es\/wp-content\/uploads\/2025\/11\/Samsung-Corporate-On-Device-AI-Dr.-MyungJoo-Ham-Interview_main3.gif\" alt=\"\" width=\"1000\" height=\"656\"\/><\/p>\n<p>\u00a0<\/p>\n<p>La Pr\u00f3xima Generaci\u00f3n de Arquitecturas de Modelos de IA<\/p>\n<p>La investigaci\u00f3n sobre arquitecturas de modelos de IA, los planos fundamentales de los sistemas de IA, tambi\u00e9n est\u00e1 muy avanzada.<\/p>\n<p>\u00a0<\/p>\n<p>\u201cDebido a que los entornos en el dispositivo tienen memoria y recursos de computaci\u00f3n limitados, necesitamos redise\u00f1ar las estructuras de los modelos para que se ejecuten de manera eficiente en el hardware\u201d, dijo el Dr. Ham. \u201cNuestra investigaci\u00f3n de arquitectura se centra en la creaci\u00f3n de modelos que maximicen la eficiencia del hardware\u201d. En resumen, el objetivo es construir arquitecturas amigables con el dispositivo desde cero para garantizar que el modelo y el hardware del dispositivo trabajen en armon\u00eda desde el principio.<\/p>\n<p>\u00a0<\/p>\n<p>Entrenar LLMs requiere mucho tiempo y costo, y una estructura de modelo mal dise\u00f1ada puede elevar esos costos a\u00fan m\u00e1s. Para minimizar las ineficiencias, Samsung Research eval\u00faa el rendimiento del hardware con anticipaci\u00f3n y dise\u00f1a arquitecturas optimizadas antes de que comience el entrenamiento. \u201cEn la era de la IA en el dispositivo, la clave de la ventaja competitiva es cu\u00e1nta eficiencia se puede extraer de los mismos recursos de hardware\u201d, dijo. \u201cNuestro objetivo es alcanzar el nivel m\u00e1s alto de inteligencia dentro del chip m\u00e1s peque\u00f1o posible: esa es la direcci\u00f3n t\u00e9cnica que estamos siguiendo\u201d.<\/p>\n<p>\u00a0<\/p>\n<p>Hoy en d\u00eda, la mayor\u00eda de los LLMs se basan en la arquitectura transformer. Los transformers analizan una oraci\u00f3n completa a la vez para determinar las relaciones entre las palabras, un m\u00e9todo que sobresale en la comprensi\u00f3n del contexto, pero tiene una limitaci\u00f3n clave: las demandas computacionales aumentan dr\u00e1sticamente a medida que las oraciones se vuelven m\u00e1s largas. \u201cEstamos explorando una amplia gama de enfoques para superar estas restricciones, evaluando cada uno en funci\u00f3n de cu\u00e1n eficientemente puede operar en entornos de dispositivos reales\u201d, explic\u00f3 el Dr. Ham. \u201cEstamos enfocados no solo en mejorar los m\u00e9todos existentes, sino en desarrollar la pr\u00f3xima generaci\u00f3n de arquitecturas construidas sobre metodolog\u00edas completamente nuevas\u201d.<\/p>\n<p>\u00a0<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-full wp-image-24244\" src=\"https:\/\/www.europesays.com\/es\/wp-content\/uploads\/2025\/11\/Samsung-Corporate-On-Device-AI-Dr.-MyungJoo-Ham-Interview_main4.jpg\" alt=\"\" width=\"1000\" height=\"541\"  \/><\/p>\n<p>\u00a0<\/p>\n<p>El Camino a Seguir para la IA en el Dispositivo<\/p>\n<p>\u00bfCu\u00e1l es el desaf\u00edo m\u00e1s cr\u00edtico para el futuro de la IA en el dispositivo? \u201cLograr un rendimiento a nivel de nube directamente en el dispositivo\u201d, dijo el Dr. Ham. Para hacer esto posible, la optimizaci\u00f3n del modelo y la eficiencia del hardware trabajan en estrecha colaboraci\u00f3n para ofrecer IA r\u00e1pida y precisa, incluso sin una conexi\u00f3n de red. \u201cMejorar la velocidad, la precisi\u00f3n y la eficiencia energ\u00e9tica al mismo tiempo ser\u00e1 a\u00fan m\u00e1s importante\u201d, agreg\u00f3.<\/p>\n<p>\u00a0<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-full wp-image-24243\" src=\"https:\/\/www.europesays.com\/es\/wp-content\/uploads\/2025\/11\/Samsung-Corporate-On-Device-AI-Dr.-MyungJoo-Ham-Interview_main5.jpg\" alt=\"\" width=\"1000\" height=\"502\"  \/><\/p>\n<p>\u00a0<\/p>\n<p>Los avances en la IA en el dispositivo est\u00e1n permitiendo a los usuarios disfrutar de experiencias de IA r\u00e1pidas, seguras y altamente personalizadas, en cualquier momento y lugar. \u201cLa IA mejorar\u00e1 en el aprendizaje en tiempo real en el dispositivo y en la adaptaci\u00f3n al entorno de cada usuario\u201d, dijo el Dr. Ham. \u201cEl futuro radica en ofrecer servicios naturales e individualizados al mismo tiempo que se salvaguarda la privacidad de los datos\u201d.<\/p>\n<p>\u00a0<\/p>\n<p>Samsung est\u00e1 ampliando los l\u00edmites para ofrecer experiencias m\u00e1s avanzadas impulsadas por la IA en el dispositivo optimizada. A trav\u00e9s de estos esfuerzos, la compa\u00f1\u00eda tiene como objetivo proporcionar experiencias de usuario a\u00fan m\u00e1s notables y fluidas.<\/p>\n","protected":false},"excerpt":{"rendered":"En las pel\u00edculas cl\u00e1sicas de ciencia ficci\u00f3n, la IA a menudo se representaba como imponentes sistemas inform\u00e1ticos o&hellip;\n","protected":false},"author":2,"featured_media":254000,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[81],"tags":[119,123,124,25,24,117,121,122,23,118,120],"class_list":{"0":"post-253999","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-ciencia-y-tecnologia","8":"tag-ciencia","9":"tag-ciencia-y-tecnologia","10":"tag-cienciaytecnologia","11":"tag-es","12":"tag-espana","13":"tag-science","14":"tag-science-and-technology","15":"tag-scienceandtechnology","16":"tag-spain","17":"tag-technology","18":"tag-tecnologia"},"share_on_mastodon":{"url":"https:\/\/pubeurope.com\/@es\/115607098428862315","error":""},"_links":{"self":[{"href":"https:\/\/www.europesays.com\/es\/wp-json\/wp\/v2\/posts\/253999","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.europesays.com\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.europesays.com\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/es\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/es\/wp-json\/wp\/v2\/comments?post=253999"}],"version-history":[{"count":0,"href":"https:\/\/www.europesays.com\/es\/wp-json\/wp\/v2\/posts\/253999\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/es\/wp-json\/wp\/v2\/media\/254000"}],"wp:attachment":[{"href":"https:\/\/www.europesays.com\/es\/wp-json\/wp\/v2\/media?parent=253999"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.europesays.com\/es\/wp-json\/wp\/v2\/categories?post=253999"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.europesays.com\/es\/wp-json\/wp\/v2\/tags?post=253999"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}