Los avances conseguidos por la china DeepSeek sobrevolarán la cumbre de la IA de París
Pekín, 10 feb (EFE).– La cumbre sobre la inteligencia artificial (IA) que comienza este lunes en París estará marcada por el revuelo en el sector que supuso el lanzamiento hace unas semanas del modelo V3 de la china DeepSeek, de cuyo desarrollo se afirma que únicamente duró dos meses y costó menos de 6 millones de dólares.
La cumbre de dos días reunirá a cerca de cien países y un millar de asistentes entre gobernantes, responsables de organizaciones internacionales, científicos y académicos, ejecutivos de grandes tecnológicas (Google, Open IA o Meta) y oenegés.
La cita convertirá a París por dos días en la capital diplomática global, con presencia del presidente francés, Emmanuel Macron, del primer ministro indio, Narendra Modi, además del vicepresidente de EE.UU., JD Vance y del primer ministro canadiense, Justin Trudeau.
Por parte china acudirá su viceprimer ministro, Zhang Guoqing, en calidad de enviado especial del presidente chino, Xi Jinping.
Una IA con claroscuros
Se espera que la cumbre debata cómo los gobiernos deben responder a los rápidos avances en la IA, y en ella sobrevolará el éxito de DeepSeek, que llegó a colocarse líder en descargas para dispositivos Apple en Estados Unidos pese a un torrente de críticas, ya que su aplicación se niega a comentar cuestiones afectadas por la censura en China como la Masacre de Tiananmen de 1989 o si Taiwán forma parte de China.
Además, países de Asia, Europa, América y Oceanía han decidido bloquear el uso de la ‘app’ china sobre todo entre sus funcionarios, ante las sospechas de que su sistema de recolección de datos -se almacenan en China- filtre información sensible o directamente «distribuya software maliciosos e infecte dispositivos», como ha acusado Estados Unidos.
Mientras, el propio Macron instó el viernes a los europeos a «luchar por su completa autonomía» para ser un actor de peso en este sector y no quedar como meros espectadores de China y EE.UU.
Entretanto, la plataforma china acaba de concluir su período de prueba con tarifas promocionales, que tuvo una duración de 45 días y durante el cual el servicio alcanzó notoriedad mundial por sus bajos precios.
Ajuste de precios y más empleados
Desde ahora, el costo de procesamiento de datos se ha establecido en 2 yuanes (0,27 dólares) por cada millón de tókenes de entrada y 8 yuanes (1,1 dólares) por cada millón de tókenes de salida.
En comparación, el modelo o1 de la estadounidense OpenAI tiene un precio de 15 dólares (unos 14,4 euros) por millón de tókenes de entrada y 60 dólares (aproximadamente 57 euros) por millón de tókenes de salida.
Expertos locales destacan hoy que la modificación podría estar relacionada con la competencia dentro del sector de la inteligencia artificial, donde empresas estadounidenses como OpenAI y Google han aplicado cambios en sus propias estructuras de precios.
Además, la compañía comenzó recientemente un proceso de reclutamiento de trabajadores dentro de China caracterizado por altos sueldos para captar talentos que le permitan hacer frente a la alta demanda lograda desde su lanzamiento.
En la actualidad DeepSeek cuenta con 150 empleados frente a los aproximadamente 1.700 con los que cuenta OpenAI, su principal competidor estadounidense y el modelo de IA más utilizado hasta ahora.
El éxito del modelo DeepSeek, de código abierto, también ha recibido críticas por supuestamente haber infringido patentes tecnológicas estadounidenses.
Otros expertos han alabado a la aplicación china por construir un modelo de lenguaje con un presupuesto limitado que puede aprender y mejorar sin supervisión humana que además funciona con chips de menor costo, generando dudas sobre el alto nivel de gasto de las tecnológicas estadounidense en las IA.
Lanzado en 2023 por el fondo de cobertura chino High-Flyer Quant, DeepSeek apuesta por el código abierto y ofrece servicios más baratos que el modelo o1 de OpenAI, y según su desarrollador es comparable con la firma creadora de ChatGPT, en la resolución de problemas matemáticos, programación e inferencia del lenguaje.
DeepSeek, entre el «pelotazo» empresarial y los múltiples riesgos de privacidad
La empresa china DeepSeek se balancea entre el pelotazo tecnológico y empresarial que ha supuesto la irrupción de su último modelo de inteligencia artificial y las advertencias de los expertos sobre los múltiples riesgos que su uso implica para la privacidad y la adecuada protección de los datos personales.
Sus desarrolladores mantienen que el modelo «R1» es comparable y en algunos aspectos superior al «o1» de la estadounidense OpenAI, que lanzó el ChatGPT, en cuanto se refiere a resolución de problemas matemáticos, programación o deducción lingüística, y que su desarrollo y sus servicios son además mucho más baratos que los de los gigantes tecnológicos americanos.
Pero las dudas y los temores que suscita la aplicación ha motivado ya que numerosos países hayan bloqueado su uso o prohibido su utilización en determinados dispositivos, y los informes de empresas de ciberseguridad y consultoras tecnológicas que alertan de los riesgos que supone para la privacidad y la adecuada protección de los datos personales comienzan a amontonarse.
Empresas y expertos ponen el acento en la trascendental relevancia de los modelos de IA basados en «códigos abiertos» y en que la falta de regulación y de control podría desencadenar que cualquier actor con unos conocimientos avanzados lo pudiera utilizar con fines maliciosos.
Los riesgos de una IA sin límites éticos
La compañía del sector de la ciberseguridad Panda Security ha publicado un informe sobre «Las consecuencias de que las IA generativas sí permitan vulnerar los derechos de privacidad», en el que alerta de que los cambios en la política de los grandes desarrolladores de inteligencia artificial podría derivar en consecuencias «catastróficas» como la manipulación masiva mediante campañas de desinfomación, ciberataques cada vez más sofisticados o una recopilación de datos sin consentimiento previo que erosione el derecho fundamental a la privacidad.
La empresa ha incidido sin embargo en que la regulación no puede ser un esfuerzo aislado de cada país, ya que se trata de una tecnología global y su desarrollo «sin límites éticos» no entiende de fronteras, y en la importancia de desarrollar un marco común de supervisión para evitar que la inteligencia artificial se acabe convirtiendo en un arma de manipulación y de vigilancia masiva.
También la compañía ESET, especializada en ciberseguridad, ha alertado contra esos riesgos, y su director de Investigación y Concienciación, Josep Albors, recordó que el modelo chino está ya sometido a un intenso escrutinio por la comunidad de seguridad informática debido a las preocupaciones en torno a su privacidad, a las vulnerabilidades y a las prácticas de recopilación de datos.
O la multinacional estadounidense de la ciberseguridad Palo Alto Networks, que ha publicado también un informe sobre la irrupción del modelo chino en el que asegura que ha detectado que DeepSeek es «preocupantemente vulnerable» en algunos aspectos -entre ellos las restricciones que actúan como barreras de seguridad- o que puede llegar a producir contenidos «nefastos» cuando se utilizan con pocos conocimientos o sin una experiencia profesional especializada.
«Todas las empresas recopilan datos»
Juan Ignacio Rouyet, responsable de IA en la consultora tecnológica Eraneos, observó que tras la repentina incursión del modelo chino están aflorando las dudas sobre sus riesgos y precisó que muchos de los problemas pueden radicar no tanto en el «código abierto» de la IA sino en la página web a la que accede el usuario, y que es donde se puede producir toda la recopilación irregular de información, un «sitio» conectado con la operadora de telecomunicaciones estatal China Mobile.
En declaraciones a EFE, sí reconoció el especial recelo ante este tipo de servicios cuando provienen de China, pero también que «todas las empresas recopilan datos», y en ese sentido incidió en la importancia de las labores de regulación y de supervisión y valoró que al menos en la Unión Europea se apueste con firmeza por esa regulación y por la vigilancia que traslade tranquilidad y confianza a los usuarios.
Rouyet, que preside el laboratorio de ideas «We The Humans» -que pone el foco en la importancia de disponer de una IA «ética», no apreció tampoco un riesgo real de que la apuesta de la UE por disponer de marcos reguladores rigorosos y sólidos acabe abriendo una brecha tecnológica por el desarrollo y el uso de la inteligencia artificial respecto a países como Estados Unidos o China, ya que está «convencido» de que se acabará imponiendo esa regulación en todo el mundo.
Y aunque advirtió de los «riesgos reales» para la privacidad en el modelo desarrollado por la compañía china, circunscribió el «pelotazo» que ha dado este modelo al ámbito empresarial y bursátil por tratarse de un sistema igual de eficiente que otros que ya existen pero mucho más barato en su creación y entrenamiento, pero en ningún caso se trata de un desarrollo tecnológico innovador.
«Es más un movimiento de ficha en el tablero del ajedrez en que se ha convertido la inteligencia artificial en el mundo; es un toque de atención al mercado», manifestó este experto, quien cuestionó además la verdadera eficiencia del modelo al trascender noticias que señalan que no se invirtieron seis millones de dólares sino 1.600.
A las advertencias sobre las amenazas que entraña el nuevo modelo de IA se ha sumado la multinacional de la ciberseguridad Check Point, que ha alertado de que junto a la «explosiva popularidad» de la aplicación han surgido preocupaciones «críticas» sobre la privacidad y la seguridad de los datos empresariales.
Foto EFE