{"id":277544,"date":"2025-12-08T11:15:14","date_gmt":"2025-12-08T11:15:14","guid":{"rendered":"https:\/\/www.europesays.com\/es\/277544\/"},"modified":"2025-12-08T11:15:14","modified_gmt":"2025-12-08T11:15:14","slug":"hace-un-cuarto-de-siglo-un-estudiante-unio-32-tarjetas-graficas-geforce-para-jugar-a-quake-iii-de-alli-salio-cuda","status":"publish","type":"post","link":"https:\/\/www.europesays.com\/es\/277544\/","title":{"rendered":"Hace un cuarto de siglo un estudiante uni\u00f3 32 tarjetas gr\u00e1ficas GeForce para jugar a Quake III. De all\u00ed sali\u00f3 CUDA"},"content":{"rendered":"<p>En el a\u00f1o 2000 <strong>Ian Buck<\/strong> quiso hacer algo que parec\u00eda imposible: jugar a Quake III en resoluci\u00f3n 8K. El joven Buck estaba estudiando inform\u00e1tica en Stanford y especializ\u00e1ndose en gr\u00e1ficos computerizados, y entonces se le ocurri\u00f3 una idea loca: unir 32 tarjetas gr\u00e1ficas GeForce y renderizar Quake III en ocho proyectores colocados estrat\u00e9gicamente.\u00a0<\/p>\n<p>\u00abAquello\u00bb, explic\u00f3 a\u00f1os m\u00e1s tarde, \u00abera precioso\u00bb.\u00a0<\/p>\n<p>Buck cont\u00f3 esa historia en &#8216;The Thining Machine&#8217;, el ensayo publicado por Stephen Witt en 2025 que recorre la historia de NVIDIA. Y por supuesto una de las partes fundamentales de esa historia es el origen de CUDA, la arquitectura que los desarrolladores de IA han convertido en una joya y que ha permitido impulsar a la empresa y convertirla en la m\u00e1s importante del mundo por capitalizaci\u00f3n burs\u00e1til.<\/p>\n<p>Y todo empez\u00f3 con Quake III.<\/p>\n<p>La GPU como supercomputadora dom\u00e9stica<\/p>\n<p>Aquello, por supuesto, solo fue un experimento divertido, pero para Buck fue una revelaci\u00f3n, porque all\u00ed descubri\u00f3 que quiz\u00e1s las chips gr\u00e1ficos especializados (GPUs, por Graphic Processing Units) pod\u00edan hacer algo m\u00e1s que dibujar tri\u00e1ngulos y renderizar fotogramas de Quake.\u00a0<\/p>\n<p>                   <img class=\"centro_sinmarco\" height=\"649\" width=\"1175\" loading=\"lazy\" decoding=\"async\"  fetchpriority=\"high\"  src=\"https:\/\/www.europesays.com\/es\/wp-content\/uploads\/2025\/12\/1765192510_621_450_1000.jpeg\" alt=\"Geforce 8800 Gts\"\/><\/p>\n<p>        En 2006 la GeForce 8800 GTS (y su versi\u00f3n superior, la GTX) iniciaron la era CUDA.<\/p>\n<p>Para averiguarlo se adentr\u00f3 en los aspectos t\u00e9cnicos de los procesadores gr\u00e1ficos de NVIDIA y comenz\u00f3 a investigar sobre sus posibilidades como parte de su doctorado de Stanford. Reuni\u00f3 a un peque\u00f1o grupo de investigadores y, con una subvenci\u00f3n del DARPA (Defense Advanced Research Projects Agency) \u00a0comenz\u00f3 a trabajar en un lenguaje de programaci\u00f3n d ec\u00f3digo abierto al que llam\u00f3 Brook.\u00a0<\/p>\n<p>Ese lenguaje permit\u00eda algo asombroso: lograr que las tarjetas gr\u00e1ficas se convirtieran en <strong>supercomputadoras dom\u00e9sticas<\/strong>. Buck demostr\u00f3 que las GPUs, te\u00f3ricamente dedicadas a trabajar con gr\u00e1ficos, pod\u00edan resolver problemas de prop\u00f3sito general, y hacerlo adem\u00e1s aprovechando el paralelismo que ofrec\u00edan esos chips.<\/p>\n<p>As\u00ed, mientras una parte del chip iluminaba el tri\u00e1ngulo A, otro ya estaba rasterizando el tri\u00e1ngulo B y otro escribiendo el tri\u00e1ngulo C en memoria. No era exactamente lo mismo que el paralelismo de datos actual, pero aun as\u00ed ofrec\u00eda una potencia de c\u00e1lculo asombrosa, muy superior a cualquier CPU de la \u00e9poca.<\/p>\n<p>    <a href=\"https:\/\/www.xataka.com\/historia-tecnologica\/esta-tecnologia-nvidia-no-ganaria-dinero-arrasaria-mercado-gpu-como-hace-hoy\" class=\"pivot-outboundlink\" data-vars-post-title=\"Sin esta tecnolog\u00eda NVIDIA no ganar\u00eda tanto dinero. Ni arrasar\u00eda en el mercado de las GPU como lo hace hoy\" rel=\"nofollow noopener\" target=\"_blank\"><br \/>\n     <img loading=\"lazy\" decoding=\"async\" alt=\"Sin esta tecnolog\u00eda NVIDIA no ganar\u00eda tanto dinero. Ni arrasar\u00eda en el mercado de las GPU como lo hace hoy\" width=\"375\" height=\"142\" src=\"https:\/\/www.europesays.com\/es\/wp-content\/uploads\/2025\/12\/1765192511_257_375_142.jpeg\"\/><br \/>\n    <\/a><\/p>\n<p>Aquel lenguaje especializado acab\u00f3 convirti\u00e9ndose en un paper llamado &#8216;<a rel=\"noopener, noreferrer nofollow\" href=\"https:\/\/dl.acm.org\/doi\/10.1145\/1015706.1015800\" target=\"_blank\">Brook for GPUs: stream computing on graphics hardware<\/a>&#8216;. De repente la computaci\u00f3n paralela estaba disponible para cualquiera, y aunque aquel proyecto apenas tuvo cobertura p\u00fablica, se convirti\u00f3 en algo que una persona tuvo claro que era importante.\u00a0<\/p>\n<p>Esa persona era Jensen Huang.<\/p>\n<p>Poco despu\u00e9s de publicar ese estudio, el fundador de NVIDIA se reuni\u00f3 con Buck y lo fich\u00f3 en el acto. Se dio cuenta de que aquella capacidad de los procesadores gr\u00e1ficos pod\u00eda y deb\u00eda explotarse, y comenz\u00f3 a dedicar m\u00e1s y m\u00e1s recursos a ello.\u00a0<\/p>\n<p>Nace CUDA<\/p>\n<p>Cuando en 2005 Silicon Graphics se hundi\u00f3 \u2014por culpa de una NVIDIA que estaba intratable en estaciones de trabajo\u2014\u00a0muchos de sus empleados acabaron trabajando para la compa\u00f1\u00eda. 1.200 de ellos de hecho fueron directos a la divisi\u00f3n de I+D, y uno de los grandes proyectos de esa divisi\u00f3n era precisamente el de sacar adelante esa capacidad de estas tarjetas.<\/p>\n<p>                   <img class=\"centro_sinmarco\" height=\"900\" width=\"1350\" loading=\"lazy\" decoding=\"async\"  fetchpriority=\"high\"  src=\"https:\/\/www.europesays.com\/es\/wp-content\/uploads\/2025\/12\/1765192512_217_450_1000.jpeg\" alt=\"Nickolls Buck\"\/><\/p>\n<p>        John Nickolls \/ Ian Buck.<\/p>\n<p>Nada m\u00e1s llegar a NVIDIA, Ian Buck comenz\u00f3 a trabajar con <strong>John Nickolls<\/strong>, que antes de trabajar para la firma hab\u00eda intentando \u2014sin \u00e9xito\u2014\u00a0adelantarse al futuro con su apuesta por la computaci\u00f3n paralela. Aquel intento fracas\u00f3, pero junto con Buck y algunos ingenieros m\u00e1s puso en marcha un proyecto al que NVIDIA prefiri\u00f3 dar un nombre algo confuso. Lo llam\u00f3 Compute Unified Domain Architecture.\u00a0<\/p>\n<p>Hab\u00eda nacido CUDA.<\/p>\n<p>El trabajo en CUDA avanz\u00f3 r\u00e1pidamente y NVIDIA lanz\u00f3 la primera versi\u00f3n de esta tecnolog\u00eda <a rel=\"noopener, noreferrer nofollow\" href=\"https:\/\/www.gamesindustry.biz\/nvidia-unveils-cuda-the-gpu-computing-revolution-begins\" target=\"_blank\">en noviembre de 2006<\/a>. Aquel software era gratuito, pero solo era compatible con hardware de NVIDIA. Y como suele suceder con muchas revoluciones, CUDA tard\u00f3 en cuajar.\u00a0<\/p>\n<p>En 2007 la plataforma software se descarg\u00f3 13.000 veces: los cientos de millones de usuarios de gr\u00e1ficas de NVIDIA solo las quer\u00edan para jugar, y as\u00ed sigui\u00f3 siendo durante mucho tiempo. Programar para sacar provecho de CUDA era dif\u00edcil, y <strong>esos primeros tiempos fueron muy dif\u00edciles para este proyecto<\/strong>, que consum\u00eda mucho talento y finanzas en NVIDIA sin que se vieran beneficios reales.\u00a0<\/p>\n<p>    <a href=\"https:\/\/www.xataka.com\/entrevistas\/nvidia-tiene-mejores-cartas-para-jugar-cpus-que-intel-gpus-marcador-cuelga-nasdaq-entrevista-manuel-ujaldon\" class=\"pivot-outboundlink\" data-vars-post-title=\"&quot;Nvidia tiene mejores cartas para jugar en CPUs que Intel en GPUs, y el marcador cuelga del NASDAQ&quot;: entrevista con Manuel Ujald\u00f3n\" rel=\"nofollow noopener\" target=\"_blank\"><br \/>\n     <img loading=\"lazy\" decoding=\"async\" alt=\"&quot;Nvidia tiene mejores cartas para jugar en CPUs que Intel en GPUs, y el marcador cuelga del NASDAQ&quot;: entrevista con Manuel Ujald\u00f3n\" width=\"375\" height=\"142\" src=\"https:\/\/www.europesays.com\/es\/wp-content\/uploads\/2025\/12\/1765192513_2_375_142.jpg\"\/><br \/>\n    <\/a><\/p>\n<p>De hecho, los primeros usos de CUDA no tuvieron nada que ver con inteligencia artificial porque apenas se hablaba de inteligencia artificial en aquel momento. Quienes aprovecharon esta tecnolog\u00eda eran departamentos cient\u00edficos, y solo a\u00f1os despu\u00e9s se perfilar\u00eda la revoluci\u00f3n que podr\u00eda provocar esta tecnolog\u00eda.\u00a0<\/p>\n<p>Un \u00e9xito tard\u00edo (pero merecido)<\/p>\n<p>De hecho, el propio Buck lo apunt\u00f3 en una entrevista en 2012 con Tom&#8217;s Hardware en 2012. Cuando el entrevistador le pregunt\u00f3 qu\u00e9 futuros usos le ve\u00eda a la tecnolog\u00eda GPGPU que ofrec\u00eda CUDA en el futuro, \u00e9l dio algunos ejemplos.\u00a0<\/p>\n<p>Habl\u00f3 de empresas que estaban usando CUDA para dise\u00f1ar ropa o coches de \u00faltima generaci\u00f3n, pero a\u00f1adi\u00f3 algo importante:\u00a0<\/p>\n<blockquote><p>\u00abEn el futuro, seguiremos viendo oportunidades en los medios personales, como la clasificaci\u00f3n y b\u00fasqueda de fotos basadas en el contenido de la imagen, es decir, rostros, ubicaci\u00f3n, etc., que es una operaci\u00f3n que requiere una gran capacidad de c\u00e1lculo\u00bb.<\/p><\/blockquote>\n<p>Aqu\u00ed Buck sab\u00eda de lo que hablaba, aunque no se imaginaba que aquello s\u00ed ser\u00eda el principio de la verdadera revoluci\u00f3n de CUDA. En 2012 dos j\u00f3venes estudiantes de doctorado llamados <strong>Alex Krizhevsky e Ilya Sutskever<\/strong> desarrollaron un proyecto bajo la tutela de su supervisor, <strong>Geoffrey Hinton<\/strong>.<\/p>\n<p> <a rel=\"nofollow, sponsored, noopener, noreferrer\" target=\"_blank\" href=\"https:\/\/www.xataka.com\/redirect?site=xataka&amp;url=https%3A%2F%2Fwww.amazon.es%2Fdp%2FB0DFV1HS1R%3Ftag%3Dxataka-21%26linkCode%3Dogi%26th%3D1%26psc%3D1&amp;affiliate_id=&amp;ecomPostExpiration=not_classified&amp;postId=328201\"><br \/>\n     <img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/www.europesays.com\/es\/wp-content\/uploads\/2025\/12\/1765192514_284_original.jpeg\" alt=\"The Nvidia Way: Jensen Huang and the Making of a Tech Giant (English Edition)\" width=\"329\" height=\"500\"\/><br \/>\n   <\/a><\/p>\n<p class=\"pivot-ecommerce-desc\">The Nvidia Way: Jensen Huang and the Making of a Tech Giant (English Edition)<\/p>\n<p>El precio podr\u00eda variar. Obtenemos comisi\u00f3n por estos enlaces<\/p>\n<p>Aquel proyecto no era otro que <a rel=\"noopener, noreferrer nofollow\" href=\"https:\/\/proceedings.neurips.cc\/paper_files\/paper\/2012\/file\/c399862d3b9d6b76c8436e924a68c45b-Paper.pdf\" target=\"_blank\">AlexNet<\/a>, el software que permit\u00eda clasificar im\u00e1genes de forma autom\u00e1tica y que hasta entonces hab\u00eda sido un reto in\u00fatil por el coste de la computaci\u00f3n que requer\u00eda. Fue entonces cuando estos acad\u00e9micos entrenaron una red neuronal con tarjetas gr\u00e1ficas de NVIDIA y con el software CUDA.\u00a0<\/p>\n<p>De repente la IA y CUDA comenzaban a tener sentido.\u00a0<\/p>\n<p>El resto, como suele decirse, <strong>es historia<\/strong>.<\/p>\n<p>En Xataka | <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/robotica-e-ia\/nos-podemos-ir-olvidando-ia-alucinaciones-ahora-director-general-nvidia-explica-que\" data-vars-post-title=\"Nos podemos ir olvidando de una IA sin alucinaciones por ahora. El director general de NVIDIA explica por qu\u00e9\" data-vars-post-url=\"https:\/\/www.xataka.com\/robotica-e-ia\/nos-podemos-ir-olvidando-ia-alucinaciones-ahora-director-general-nvidia-explica-que\" rel=\"nofollow noopener\" target=\"_blank\">Nos podemos ir olvidando de una IA sin alucinaciones por ahora. El director general de NVIDIA explica por qu\u00e9<\/a><\/p>\n<p>\u00a0<\/p>\n","protected":false},"excerpt":{"rendered":"En el a\u00f1o 2000 Ian Buck quiso hacer algo que parec\u00eda imposible: jugar a Quake III en resoluci\u00f3n&hellip;\n","protected":false},"author":2,"featured_media":277545,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[81],"tags":[119,123,124,25,24,117,121,122,23,118,120],"class_list":{"0":"post-277544","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-ciencia-y-tecnologia","8":"tag-ciencia","9":"tag-ciencia-y-tecnologia","10":"tag-cienciaytecnologia","11":"tag-es","12":"tag-espana","13":"tag-science","14":"tag-science-and-technology","15":"tag-scienceandtechnology","16":"tag-spain","17":"tag-technology","18":"tag-tecnologia"},"share_on_mastodon":{"url":"https:\/\/pubeurope.com\/@es\/115683664205167714","error":""},"_links":{"self":[{"href":"https:\/\/www.europesays.com\/es\/wp-json\/wp\/v2\/posts\/277544","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.europesays.com\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.europesays.com\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/es\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/es\/wp-json\/wp\/v2\/comments?post=277544"}],"version-history":[{"count":0,"href":"https:\/\/www.europesays.com\/es\/wp-json\/wp\/v2\/posts\/277544\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/es\/wp-json\/wp\/v2\/media\/277545"}],"wp:attachment":[{"href":"https:\/\/www.europesays.com\/es\/wp-json\/wp\/v2\/media?parent=277544"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.europesays.com\/es\/wp-json\/wp\/v2\/categories?post=277544"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.europesays.com\/es\/wp-json\/wp\/v2\/tags?post=277544"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}