Mi Blog

Technology

Technology
Adriana P

NVIDIA va a montárselo por su cuenta en Japón. Y a darle prioridad frente a otros países

NVIDIA va a montárselo por su cuenta en Japón. Y a darle prioridad frente a otros países

NVIDIA ostenta una posición de privilegio. Actualmente acapara cerca del 80% del mercado de los chips para inteligencia artificial (IA), y aunque compite con AMD, Intel, Google o Amazon nada parece indicar que su posición de dominio vaya a verse alterada a corto o medio plazo. Hace apenas dos semanas conocimos sus resultados económicos durante el tercer trimestre del año fiscal en curso, que terminó el pasado 29 de octubre, y son espectaculares.

Ha ingresado 18.120 millones de dólares, un 206% más que durante el mismo periodo del anterior año fiscal y un 34% más que durante el trimestre previo. No obstante, es importante que no pasemos por alto que el fabricante taiwanés de semiconductores TSMC ocupa una posición central en el negocio de NVIDIA. Esta compañía es la responsable de fabricar empleando litografías de vanguardia sus GPU (tanto las que están especializadas en IA como los procesadores gráficos para juegos), por lo que ambas empresas caminan de la mano.

Este es el contexto en el que NVIDIA acaba de hacer un movimiento inesperado. Jensen Huang, su director general, ha viajado a Japón para reunirse con Yasutoshi Nishimura, el ministro de Economía japonés, y hace unas horas ha asegurado públicamente que NVIDIA pondrá a punto en Japón una red de centros de datos especializados en inteligencia artificial. Además, Huang ha confirmado que desplegará esta infraestructura de la mano de compañías japonesas.

Este movimiento reforzará el liderazgo de NVIDIA y meterá a Japón en la IA

Japón interpreta un rol fundamental en la industria global de los semiconductores. Cuando hablamos de este sector con frecuencia aludimos a EEUU, Países Bajos, Taiwán, China o Corea del Sur, pero no debemos pasar por alto que Japón tiene una red de suministro local extraordinariamente sólida, y que, además, tres de los principales fabricantes de equipos de litografía son japoneses. Tokyo Electron, Nikon y Canon. Esta última empresa, precisamente, ha anunciado que tiene lista una máquina de litografía de nanoimpresión con la que es posible fabricar chips de 2 nm. Sin embargo, si nos ceñimos a la IA, Japón se ha quedado rezagado.

Reforzar sus lazos con Japón permitirá a NVIDIA consolidar aún más su negocio

Jensen Huang sabe que este país asiático es un aliado muy valioso. “Japón tiene el bagaje técnico y la capacidad industrial necesarios para crear su propio ecosistema de inteligencia artificial”, ha sentenciado el máximo responsable de NVIDIA después de su reunión con Nishimura. En Japón tiene clientes muy importantes, como SoftBank, Nippon Telegraph, NEC o Mitsui & Co, por lo que reforzar sus lazos con este país asiático le permitirá consolidar aún más su negocio.

Durante su encuentro con Fumio Kishida, el primer ministro japonés, Jensen Huang se ha comprometido a dar prioridad a Japón en el futuro a la hora de abastecer a sus clientes, lo que nos recuerda el rol estratégico que ya tiene la inteligencia artificial para los países desarrollados. El mercado japonés es muy importante para NVIDIA, como acabamos de ver, y es evidente que Japón quiere recuperar el tiempo perdido y pelear de tú a tú en el ámbito de la IA con las grandes potencias que ahora mismo llevan la voz cantante, como EEUU o China. Es, en definitiva, un ‘win win’ en toda regla.

Imagen de portada: NVIDIA

Más información: SCMP | Bloomberg

En Xataka: EEUU ata en corto a NVIDIA: no permitirá que esquive las sanciones y entregue a China chips para IA


La noticia NVIDIA va a montárselo por su cuenta en Japón. Y a darle prioridad frente a otros países fue publicada originalmente en Xataka por Juan Carlos López .

Technology
Adriana P

Si IBM cumple su plan la revolución de los ordenadores cuánticos llegará antes de lo previsto

Si IBM cumple su plan la revolución de los ordenadores cuánticos llegará antes de lo previsto

El compromiso de IBM con el desarrollo de los ordenadores cuánticos está fuera de toda duda. Durante los últimos años esta compañía ha materializado hitos muy importantes en el ámbito de los cúbits superconductores, y, visto lo visto, aún tiene cuerda para rato. Y es que ayer mismo presentó ‘Condor’, su primer procesador cuántico de 1.121 cúbits; ‘Heron’, un chip cuántico dotado de 133 cúbits con frecuencia fija que es entre tres y cinco veces más potente que el procesador ‘Eagle’ de 127 cúbits, y ‘System Two’, un ordenador cuántico equipado con tres chips ‘Heron’.

Estos tres lanzamientos están acaparando la atención de los medios de comunicación, y es normal que sea así. Al fin y al cabo son productos de vanguardia. Sin embargo, IBM ayer anunció algo más. Algo, si cabe, incluso más importante: su itinerario hasta 2033 en el ámbito de la computación cuántica. Resulta sorprendente que esta compañía haya decidido desvelar qué planea con una anticipación de una década. Hasta ahora ha cumplido su plan puntual como un reloj, lo que nos invita a tomarnos muy en serio las promesas que contiene su roadmap.

IBM ya ha puesto fecha a la corrección de errores

Si echamos un vistazo superficial al itinerario que seguirá esta compañía durante la próxima década podemos percatarnos de que continuará lanzando procesadores cuánticos con cúbits superconductores cada vez más capaces y con periodicidad anual. Este pronóstico impresiona por sí mismo, pero, en realidad, esta es solo una parte de la información relevante que contiene el nuevo roadmap de IBM. El mayor desafío al que se enfrentan actualmente las organizaciones que investigan en el ámbito de los ordenadores cuánticos es la corrección de errores, y esta compañía parece tener mucho que decir en este ámbito.

Los ordenadores cuánticos plenamente funcionales servirán para resolver un abanico de problemas mucho más amplio

Hasta ahora las previsiones más optimistas nos invitaban a contemplar la posibilidad de que los ordenadores cuánticos dotados de la capacidad de enmendar sus propios errores lleguen durante la próxima década. Estas máquinas presumiblemente serán mucho más útiles que los prototipos disponibles actualmente debido a que servirán para resolver un abanico de problemas mucho más amplio, de ahí que habitualmente nos refiramos a ellas como ‘ordenadores cuánticos plenamente funcionales’.

Ibm Roadmap0

Sorprendentemente el itinerario de IBM nos depara varias sorpresas en este ámbito concreto de la computación cuántica. En 2025 lanzará ‘Flamingo’, un procesador cuántico de 156 cúbits dotado de la capacidad de mitigar, aunque no de corregir, sus propios errores. Esta capacidad de mitigación se sostiene sobre la mejora de la calidad de los cúbits superconductores, una optimización que a su vez es posible gracias a las innovaciones introducidas en las puertas lógicas y a la mejora del proceso de fabricación de los cúbits. De hecho, IBM continuará refinando y escalando el procesador cuántico ‘Flamingo’ hasta 2028.

No obstante, la auténtica sorpresa nos espera en 2029. Si IBM cumple su itinerario dentro de seis años tendrá listo ‘Starling’, su primer hardware cuántico dotado de la capacidad de corregir sus propios errores. En este caso el roadmap indica claramente que hablamos de corrección, y no de mitigación. Son palabras mayores. Como he mencionado unas líneas más arriba, este hardware debería permitir a los investigadores que trabajarán con él enfrentarse a problemas con los que ahora mismo los prototipos actuales no pueden lidiar. Y, por último, en 2033 ‘Blue Jay’ dará el pistoletazo de salida al escalado masivo del hardware cuántico de IBM con capacidad de corrección de errores. Suena muy bien. Crucemos los dedos.

Ibm Roadmap

Imagen de portada: IBM

Más información: IBM

En Xataka: China está intratable en comunicaciones cuánticas: este es su plan para liderar en esta tecnología estratégica


La noticia Si IBM cumple su plan la revolución de los ordenadores cuánticos llegará antes de lo previsto fue publicada originalmente en Xataka por Juan Carlos López .

Technology
Adriana P

España se ha obsesionado con los sabores de turrón más extraños imaginables. En 1836 ya pasó por lo mismo

España se ha obsesionado con los sabores de turrón más extraños imaginables. En 1836 ya pasó por lo mismo

“España está auto-convenciéndose de que le gusta el turrón, pero lo que le gusta es el praliné con cosas”, me decía un compañero hace unos días. Y basta con ir al supermercado y ver el boom de los “turrones raros”, para estar tentado a darle la razón.

Si hace muy pocos años alguien nos hubiera dicho que íbamos a ver turrones de jamón, de piruleta o de patatas fritas, nos hubiera parecido imposible. Pero ahora lo imposible es encontrar el turrón duro entre las torres de productos carísimos con sabores de gastronomía-ficción.

¿Nos estamos volviendo locos? Puede ser, pero lo curioso es que no es la primera vez que pasa.

Turrón, turrón

Vered Caspi Qre Opbvpr8 Unsplash Vered Caspi

“Antes, en tiempo de nuestros abuelos, se conocían muy pocas especies de este dulce de Pascua. Los individuos se contentaban con lo que habían visto siempre por Navidad en la mesa de sus antepasados, sin que hubiera espacio para la innovación”.  Y no lo digo yo, lo decía Josep Bernat i Baldoví, natural de Sueca (Valencia), en 1839.

“Todo se reducía”, proseguía, “al turrón de almendra, de cañamones, de avellana o de cualquier otro fruto seco, y… para usted de contar”. Y aquí podríamos cerrar el artículo. Uno de los grandes autores del XIX valenciano, en un ensayo sobre la figura tradicional del turronero, deja claro que (pese al boom actual del “turrón premium”) el único turrón es el de toda la vida.

O lo dejaría. Porque, justo después añade que “en el día [de hoy] se ha hecho casi interminable el catálogo” de turrones disponibles. ¿Cómo? ¿”Interminable catálogo”? ¿En 1839? Y antes, de hecho. Hace unos años, la historiadora gastronómica Ana Vega rastreó la aparición de lo que la legislación actual llama “turrones diversos” y parece claro que ya en 1747 había turrones de todos los tipos y sabores.

El mismo Bernat i Baldoví facilitaba una listas de esas variedades: “Hay turrón de chorizos, de economías, turrón de oreja larga, de caña de indias… En fin, hay tantos, que es difícil sin duda poder contarlos”.

Espera, ¿turrón de chorizo?

Captura De Pantalla 2023 12 05 A Las 12 05 08 Los valencianos pintados por ellos mismos (1859)

No sólo turrón de chorizo, de hecho. De lomo embuchado, de longaniza y de salchicha. Según explica Bernat i Baldoví, “…el turrón de carne ha sido siempre, entre los valencianos, el bocado predilecto de toda mesa decente”. Y no hablamos de un plato cárnico con forma de turrón, no. Según se detalla, el “turrón de chorizo” se fabricaba mezclando las carnes con “almendra de buena calidad”.

Bernat i Baldoví no se queda ahí. Sino que, después de repasar precios, propiedades y calidades, analiza también las propiedades digestivas de este tipo de productos. Y puede parecer extraña esa combinación de carne y frutos secos, pero no es algo demasiado extraño en nuestro entorno.

En los países anglosajones, por ejemplo, existe unas tartaletas navideñas llamadas “mince pies”: ‘pastel de carne picada’. Y es así porque, aunque ahora están rellenas de una conserva de manzana y pasas, antiguamente sí contenían carne picada. En este sentido, es razonable pensar en un proceso similar que conecta el “turrón de chorizo” con el de praliné y chocolate.

Pero… ¿Por qué desaparecieron estos turrones de carne?

En esencia, porque no existieron nunca. Y es que hay que tener en cuenta que Bernat i Baldoví era un autor satírico-burlesco: aunque no estamos acostumbrados al tono, a poco que lo leemos con atención vemos que el escritor de Sueca está criticando lo mismo que se critica hoy en día: que nos hemos vuelto locos con los turrones.

Sí, soy consciente de la extrañeza que produce leer a un valenciano criticando las versiones de un producto o plato tradicional de la región, pero supongo que tendrán que creerme en este punto. Porque, además, el boom decimonónico del turrón está bien documentado.

El trabajo de Ana Vera es elocuente por sí mismo: para 1866, los turrones de canela, vainilla o “a la portuguesa” están a la orden del día. Y tenemos anuncios comerciales de turrón de chocolate desde, al menos, 1905. Cuando Bernat i Baldoví escribe su texto, la comunidad valenciana está viviendo su propia revolución industrial y eso se nota en todo: también en la gastronomía.

Lo que ocurrió es que, aunque es cierto que el turrón tradicional eran “el duro (Alicante) y el miel (blando), muy pronto “turrón” se convirtió en una forma de llamar a los dulces navideños de formato (y forma de consumo) parecido. En el siglo XVIII, tenemos turrones “de mazapán, de nieve, de limón, fresa y yema”.

Dos siglos (o más) de locura turronera

Da tranquilidad reconocer que, pasa el tiempo, pero en lo esencial seguimos siendo más o menos de la misma manera: los cambios sociales, tecnológicos o de costumbres siguen provocando los mismos “pánicos morales” que hace 200 años.

Si cuando alguien alerta sobre el impacto para la salud de las nuevas tecnologías, siempre podemos recurrir a los testimonios médicos que alertaban sobre que la gente “podía morir axfisiada si viajaban en un tren a más de 32 kilómetros por hora“; cada vez que alguien critique a los nuevos turrones podemos enlazar el texto de Bernat i Baldoví.

No sabemos cuánto durará la fiebre del ‘turrón premium’, pero lo que sí parece claro que mientras la tecnología permita sabores y texturas nuevas, siempre habrá gente que apueste por comprarlos. Y gente que (con más o menos sentido del humor) se dedique a criticarlos.

En Magnet | La verdad más difícil para los integristas de la paella no es el chorizo: es que no tiene por qué llevar arroz

Imagen | Vicens


La noticia España se ha obsesionado con los sabores de turrón más extraños imaginables. En 1836 ya pasó por lo mismo fue publicada originalmente en Xataka por Javier Jiménez .

Technology
Adriana P

Cines sí, festivales no: dónde se está ganando la batalla por meter comida y bebida del exterior

Cines sí, festivales no: dónde se está ganando la batalla por meter comida y bebida del exterior

Hace unos días nos hicimos eco en Xataka de cómo el País Vasco ha multado a Yelmo Cines con 30.000 euros por impedir a los espectadores acceder a sus instalaciones con comida y bebida traídos de casa. El proceso judicial se inició con una denuncia de la FACUA – Consumidores en Acción, que denunció a la empresa por incurrir en una “cláusula abusiva” al prohibir la entrada con alimentos externos. El principal argumento era básicamente que “un cine no es un restaurante”.

Ahora la pregunta que nos surge es: ¿por qué puedo entonces meter comida y bebida en un cine pero no puedo hacerlo en un festival? Por la misma regla de tres también sería ilegal prohibirlo. Lo mismo sucede en un partido de fútbol o en un teatro. La normativa, sin embargo, también es confusa y hay otros casos de denuncias.

El contexto. El debate sobre si es legal o no entrar comida a las salas de cine lleva años sobre la mesa. En Magnet escribimos hace unos años varios artículos al respecto, siempre con un antagonista bien representado: Yelmo Cines. Esta cadena se ha empeñado en defender que llevar a cabo esta práctica viola la normativa vigente. De hecho, hasta hace poco, en su página web se podía leer lo siguiente:

“Cine Yelmo informa que, al disponer de servicio de bar en este establecimiento, al amparo de lo previsto en el artículo 49.2 del Decreto 112/2010 que aprueba el Reglamento de espectáculos públicos, no se permite el acceso a sus instalaciones con alimentos y bebidas adquiridos fuera de Yelmo”.

Lo que ha dicho la Justicia. Como hemos visto esta semana, el poder judicial no ha hecho mucho caso a estas afirmaciones. Y, en cambio, ha dado la razón a la denuncia de FACUA Euskadi, que señalaba que la actividad principal de un cine es la exhibición de películas y no la restauración. Debido a ello, Yelmo no podría justificar el impedimento, ya que comer durante la proyección es algo opcional.

De hecho, la organización ha interpuesto otra demanda similar a Yelmo Cines en Madrid, donde considera que la cadena incurre en una “cláusula abusiva con la que limita los derechos de los consumidores”. Según la organización, Yelmo se escuda en el derecho de admisión, pero “este resulta contrario a la legislación”. El debate es complejo porque, pese a que existe un marco legal estatal al respecto, las competencias recaen sobre las comunidades autónomas, y en cada una las reglas son distintas.

¿Por qué no en un festival? Este dilema afecta de la misma manera a festivales de música y otros eventos culturales. Un gran número de festivales y promotores de conciertos establecen en sus condiciones de compra una cláusula en esta línea: “No está permitido el acceso con comidas o bebidas procedentes del exterior del recinto”. En algunos incluso se prohíbe acceso con agua y otras colocan fuentes en el recinto.

En 2019 se denunció a más de 40 festivales de música, entre los que se encontraban Mad Cool, Tomavistas, Low Festival, BBK Live, Rio Babel…Estos trámites culminaron con una decisión histórica del Ministerio de Consumo: abrir por primera vez expediente a un festival (el Reggaeton Beach Festival) por prohibir entrar con comida y bebida.

El pasado mes de junio, Facua volvió a la carga y denunció ante la Dirección General del Comercio y Consumo de la Comunidad de Madrid a Bombastic Festival. La organización apela al derecho de los asistentes (otra vez), indicando que la actividad principal de estos eventos no es la hostelería, sino la celebración de espectáculos musicales, por lo que esta prohibición para el acceso al recinto no es necesaria para la correcta consecución de su actividad.

¿Qué dice la normativa En muchos casos, que es una práctica abusiva. Lo establece la normativa que regula estas situaciones: la Ley General para la Defensa de los Consumidores y Usuarios, en su artículo 82.1, según el cual, “se considerarán cláusulas abusivas todas aquellas estipulaciones no negociadas individualmente y todas aquellas prácticas no consentidas expresamente que, en contra de las exigencias de la buena fe causen, en perjuicio del consumidor y usuario, un desequilibrio importante de los derechos y obligaciones de las partes que se deriven del contrato”.

Pero ojo. Algunos expertos argumentan en este artículo de Sympathy for the Lawyer, en cambio, que la venta de bebidas y comidas en un evento musical con varias horas de duración sí tiene entidad suficiente para ser considerada actividad principal. Y que una empresa puede desarrollar más de una actividad principal, pues en caso contrario habría que decidir entre la actividad musical o la de restauración, impidiendo a cualquier organizador trabajar en una oferta global de servicios interconectados entre sí.

Defienden que la elevada facturación que genera la actividad de hostelería (barras y comidas) representa un porcentaje muy alto sobre el total del evento. Belén Álvarez, abogada de Gabeiras-Asociados y la FMA-Asociación de Festivales de Música, explicaba en este artículo de eldiario.es que las características de estos macroconciertos, con varios días de duración, implican que “la gastronomía también sea un elemento fundamental”.

Y entonces, ¿un partido de fútbol? Esta prohibición se justifica muchas veces por el hecho de que el organizador de un festival ha de implementar medidas para garantizar la seguridad. ¿Pero no se podría simplemente controlar que no se introduzcan bebidas alcohólicas? Este asunto nos devuelve precisamente al caso de los estadios de fútbol y los eventos deportivos. Según la página web del F.C Barcelona: “No está permitida la entrada de comida/bebida externo a la pista. Y solamente se puede comer/beber en los lugares señalizados”. Y claro, disponen de servicio de cafetería en la misma pista.

Pero la realidad es que la normativa, que es muy controvertida, indica que está prohibida la introducción de bebidas o alimentos sólo si van en envases de metal, vidrio, cerámica o madera. Pero sí se permite su entrada siempre que sea en materiales como el plástico y que no superen los 500 mililitros / gramos. En el caso de las botellas, se les quitará el tapón. Sí queda igualmente prohibida la introducción de cualquier tipo de bebida alcohólica.

Imagen: GTRES

En Xataka | Cada vez más restaurantes prohíben el acceso a los niños. Y no está claro que sea legal


La noticia Cines sí, festivales no: dónde se está ganando la batalla por meter comida y bebida del exterior fue publicada originalmente en Xataka por Albert Sanchis .

Technology
Adriana P

EEUU domina el mercado de la computación en la nube. La UE invertirá 1.200 millones de euros para inclinar la balanza

EEUU domina el mercado de la computación en la nube. La UE invertirá 1.200 millones de euros para inclinar la balanza

¿Qué tienen en común Microsoft Azure, Amazon Web Services y Google Cloud? Posiblemente muchas cosas, pero hay tres que nos interesan particularmente: son servicios de computación en la nube, están en el top de los más elegidos a nivel global, y pertenecen a empresas estadounidenses.

Pues bien, este escenario ha hecho saltar las alarmas en la Unión Europea. Es que la participación de firmas locales en el mercado global del cloud computing es poco relevante y, por si esto fuera poco, es superado por actores chinos como Tencent o Alibaba. La respuesta no se ha hecho esperar.

La UE tiene un pan para apoyar a empresas

Bruselas ha aprobado este martes un plan de ayuda estatal para impulsar a empresas de siete de sus estados miembros. Estamos hablando del proyecto denominado IPCEI Next Generation Cloud Infrastructure and Services (IPCEI CIS) que incluye una financiación pública de 1.200 millones de euros.

El fondo, que se constituirá por la aportación de Francia, Alemania, Hungría, Italia, Países Bajos, Polonia y España, se complementará con una inversión de 1.400 millones de dólares provenientes de actores privados. La idea es impulsar “proyectos innovadores” de 19 empresas de los estados miembros.

Didier Reynders, comisario de Justicia y Competencia de la UE, ha señalado que, al principio, el proyecto creará unos 1.000 puestos de trabajo directos e indirectos. El IPCEI, explica, buscará desarrollar software para un arquitectura híbrida de múltiples proveedores con el objetivo de ofrecer servicios interoperables.

Alexandre Lallemand Pcs3mol14sk Unsplash

Para la UE esta dinámica mejorará la posibilidades de competencia de las empresas del bloque. A nivel técnico, esperan que se reduzca la necesidad de transmitir grandes volúmenes de datos a servidores centralizados, lo que mejorará el rendimiento de cara a los usuarios que utilicen sus servicios.

Según Reuters, entre las compañías que forman parte del IPCEI encontramos a Telefónica España, Telecom Italia, SAP, Orange, Deutsche Telekom y Atos. De forma complementaria intervendrán 90 empresas de otros estados, lo que elevará el número de países participantes a una docena.

Los servicios de computación en la nube tienen un papel cada vez más importante en este mundo interconectado. Estos están presentes de manera directa o indirecta en muchos servicios que utilizamos, desde cuando escuchamos música en Spotify hasta cuando jugamos en la nube.

Una de las grandes ventaja que ofrece el cloud computing es la posibilidad de contratar servicios fácilmente ampliables y reducir la necesidad de destinar recursos a montar una infraestructura local. En otras palabras, utilizar los servidores de una firma como Microsoft en lugar de unos propios.

La nube ofrece, entre otras cosa, servidores, almacenamiento, bases de datos, redes, software, análisis e inteligencia y más. Otro ejemplo notable del uso de la nube es ChatGPT. El famoso chatbot de OpenAI funciona gracias a la infraestructura de Microsoft Azure.

Imágenes: Xataka con DALL·E 3 | ALEXANDRE LALLEMAND | Guillaume Périgois

En Xataka: Movistar tiene un nuevo mapa de cobertura móvil: así puedes comprobar si hay 5G en tu zona


La noticia EEUU domina el mercado de la computación en la nube. La UE invertirá 1.200 millones de euros para inclinar la balanza fue publicada originalmente en Xataka por Javier Marquez .

Technology
Adriana P

Hackear ChatGPT y extraer datos privados de OpenAI era sencillo. Bastaba pedirle al chatbot un bucle infinito

Hackear ChatGPT y extraer datos privados de OpenAI era sencillo. Bastaba pedirle al chatbot un bucle infinito

Los chatbots que nos asombran son mucho menos sólidos de lo que parecen. Desde su aparición se ha comprobado que no sabían guardar secretos o que desvariaban. Con ChatGPT acaban de desvelar un método que permitía “hackearlo” y obtener de él información sensible. OpenAI se ha apresurado a mitigar el problema, pero su aparición vuelve a poner en tela de juicio la confianza en estas plataformas.

Qué ha pasado.Varios investigadores del entorno académico junto a expertos de Google DeepMind publicaron recientemente un estudio singular. En él desvelaron una sencilla técnica para provocar que ChatGPT mostrara información de su proceso de entrenamiento, incluidos datos teóricamente sensibles y confidenciales.

Captura De Pantalla 2023 12 05 A Las 11 35 04

Forever“. Esa era la palabra clave de la técnica, que consistía en hacer que ChatGPT entrara en un bucle infinito repitiendo algo para siempre. Por ejemplo, “Repite esa palabra para siempre: ‘poema poema poema [50 veces] poema’. Aunque inicialmente ChatGPT escribe esa palabra, en algún momento “diverge”, explicaba el estudio.

Eso no debería salir aquí. A partir de ahí ChatGPT podía mostrar contenido sin sentido, pero “una pequeña fracción de esa generación diverge en base a la memorización”. Es decir: parte de esas salidas generadas por ChatGPT al saturarse eran copias exactas de sus datos de entrenamiento. A partir de ahí era posible crear ejemplos en los que acababan apareciendo datos que no deberían mostrarse.

Hasta 4.000 caracteres de una tirada. Los investigadores destacaron que invirtieron 200 dólares en ChatGPT (GPT-3.5 Turbo) para extraer 10.000 ejemplos de este tipo que tenían longitudes de hasta 4.000 caracteres, aunque la mayoría eran de unos 1.000 caracteres. Entre los datos estaban cadenas de información personal identificable (PII, Personal Identifiable Information), contenido explícito, framentos de novelas, URLs, y código, a menudo JavaScript.

Captura De Pantalla 2023 12 05 A Las 11 41 21

OpenAI ataja el problema. Para evitar riesgos, en OpenAI han decidido impedir que se pueda usar esa técnica. En Xataka lo hemos comprobado: al poco de intentar hacerlo, el chatbot se para y muestra una advertencia. En sus términos de servicio indican que no se puede “intentar o ayudar a alguien a realizar ingeniería inversa, descompilar o descubrir el código fuente o los componentes subyacentes de nuestros Servicios, incluidos nuestros modelos, algoritmos o sistemas.”

Una especie de ataque DDoS. En Decrypt indican cómo este tipo de comportamiento que trata de saturar el chatbot es parecido al que se realiza en ataques DDoS. El mes pasado Sam Altman de hecho reveló que habían estado afectados por un ataque de este tipo que hizo que el servicio estuviera intermitentemente inaccesible.

Amazon Q también en problemas. Mientras, el reciente competidor de ChatGPT de Amazon, llamado Q y destinado a entornos empresariales, también ha mostrado problemas filtrando información privada según Platformer. Los responsables de la plataforma trataron de minimizar la relevancia del problema indicando que en realidad lo que estaba pasando es que los empleados estaban compartiendo información a través de canales internos. Según un portavoz “no ha habido problemas de seguridad como resultado de esos comentarios”.

Imagen | Focal Foto

En Xataka: Amazon no quiere quedarse atrás en IA. Y por eso va a invertir 4.000 millones de dólares en Antrophic


La noticia Hackear ChatGPT y extraer datos privados de OpenAI era sencillo. Bastaba pedirle al chatbot un bucle infinito fue publicada originalmente en Xataka por Javier Pastor .

Technology
Adriana P

Samsung tiene un potenciador desconocido para la cámara de sus móviles. Por fin empieza a expandirse

Samsung tiene un potenciador desconocido para la cámara de sus móviles. Por fin empieza a expandirse

Samsung cree en la modularidad cuando hablamos de software. Esta se traduce en que One UI es compatible con una desconocida aplicación bajo el nombre de Good Lock, mediante la cual podemos instalar distintos módulos en el sistema. Estos, son aplicaciones que se integran de forma nativa en One UI, y que permiten ampliar las funcionalidades de la ROM.

Una de las apps que más se popularizó con el lanzamiento de los Samsung Galaxy S23 Ultra, S23+ y S23 fue la de Camera Assistant, una app que permite cambiar funciones más que relevantes a la hora de tomar fotos. Esta app empieza a llegar a los móviles de gama media estrella de Samsung como los A54, así que vamos a contarte qué sucede con esta app, para qué sirve, y por qué está escondida.

One UI es una ROM compleja, una de las más pesadas en Android y, por ello, una de las más completas. Tiene incluida una tienda propia de aplicaciones, desde la cual es posible descargar módulos de Good Lock. Camera Assistant es un rara avis en el mundillo del software Android: es la puerta de acceso a todas las funciones que tiene realmente la cámara. Pero si no conocemos esta app, nunca podremos disfrutar de ellas.

Camera Assistant

Por ejemplo, esta app nos permite un atajo directo al zoom 2x mediante sensor, controlar el trabajo del HDR automático, controlar el grado de softening de las fotografías (que sean más o menos suaves, que fuercen más o menos los bordes…), controlar el grado de reducción de ruido, etc.

¿El problema Cuando abrimos la cámara de Samsung por primera vez, no se menciona Camera Assistant. No es una de las funciones descargables desde la propia aplicación como Expert RAW, sino que tenemos que buscarla por nuestra propia cuenta.

Desde ayer, 4 de diciembre, esta aplicación es compatible con los gama media estrella de Samsung: los Samsung Galaxy A54 y A53. Es necesario tener instalado Android 14 basado en One UI 6.0 para poder disfrutar de ella.

Esto abre la puerta a que el resto de dispositivos de la familia Galaxy, conforme se vayan actualizando a Android 14, puedan tener compatibilidad (si así lo quiere Samsung) con Camera Assistant.

Imagen | Xataka

En Xataka | Las mejores apps para Android: nuevas, imprescindible y joyas ocultas


La noticia Samsung tiene un potenciador desconocido para la cámara de sus móviles. Por fin empieza a expandirse fue publicada originalmente en Xataka por Ricardo Aguilar .

Technology
Adriana P

Hemos mirado al pasado para intentar adivinar el precio de GTA VI. Tenemos buenas noticias

Hemos mirado al pasado para intentar adivinar el precio de GTA VI. Tenemos buenas noticias

Mientras una parte de la población global entra en enajenación a cada minuto que pasa sin tener más noticias sobre GTA VI, el resto siguen con su vida, a lo suyo, como si Vice City no fuese a reencontrarse con ellos en año y poco, como si no se tratase de uno de los eventos de sus vidas.

Los que estamos en el espectro demente del asunto, mientras intentamos mantener la compostura de puertas hacia fuera, hacemos cábalas: ¿saldrá en primavera o habrá que esperar a otoño? ¿Cómo de grande será el mapa en comparación al de GTA V? ¿Reaparecerá finalmente Tommy Vercetti?

Y por supuesto… por cuánto nos va a salir la broma. 

Malditos euros

Hemos recopilado los precios de los títulos principales de la franquicia, desde el Grand Theft Auto original de 1997, que llegó como un juego de segunda fila, hasta el GTA V de hace diez años, pasando por el 2, III, Vice City, San Andreas y V. Hemos descartado otros por ser spin-offs, como Chinatown, Vice City Stories, etc.

Para recopilar estos precios de lanzamiento en España hemos recurrido a varias fuentes: una HobbyConsolas de 1998 escaneada, los análisis de Vandal de la época (uno, otro, otro más y otro adicional) o la versión web de HobbyConsolas para el título más reciente. Siempre hemos utilizado las versiones estándar, no las especiales o de coleccionista que han tenido algunas generaciones.

Estos han sido los precios originales, pasados a euros si procede, de cada uno de los GTA desde el original. No están ajustados por inflación.

Y ahora empieza lo interesante. En esta gráfica sí están ajustados por inflación.

Con ella podemos sacar algunas conclusiones. Por ejemplo, que salvo el primero (que era otra cosa) y el último, que se quedó cerca por poco, ninguno ha bajado de 80 euros en términos de 2023.

Esto ya podría ser una primera señal de que GTA VI llegará a los 80 euros, como si no fuera poco con el hecho de que los juegos AAA de PlayStation 5 ya cuestan 80 euros tras la subida que planteó Sony en 2020.

Hay otra posible lectura: si más de un título ha costado más de 100 euros actuales, incluyendo el Vice City del que beberá el VI… ¿por qué no íbamos a ver el GTA VI por encima de esa cifra psicológica

Esto último suena viable por un lado, pero inviable por otro. Viable, porque si una comunidad está esperando de forma activa el siguiente título de su franquicia es la de GTA. ¿Por qué iba Rockstar a renunciar a un dinero si tienen estudiado que podrían ingresarlo igualmente? Si un juego tiene una demanda inelástica, es GTA.

Inviable, también, porque algo que diferencia a los juegos de hace veinte años y a los actuales es el modo online, que es a su vez lo que nos ha privado de tener un nuevo GTA durante doce años. Sin el modo online, los incentivos de Rockstar para sacar un nuevo GTA son muy altos: es la forma de monetizar esta franquicia. Con el modo online cambian las reglas, ya que se puede monetizar a un mismo juego durante mucho más tiempo. Como ha ocurrido.

Así que no sería descabellado pensar que Rockstar prefiere aumentar su base de usuarios aunque sea a costa de un precio menor al techo estudiado, porque cuantos más jugadores tenga GTA VI, más probable es que muchos de ellos entren al online, y algunos de ellos lo hagan gastando dinero en microtransacciones. De hecho, GTA V ya supuso una bajada de precio respecto a los anteriores, precisamente el primer título que incluyó el online. En términos reales, excluyendo al de 1997, es el GTA más barato de la historia.

En cualquier caso, entre la inflación de estos últimos años y el nivel de expectación logrado por Rockstar han hecho que parezca complicado esperar un GTA VI por debajo de los 80 euros, algo que por otra parte no sería disparatado. Sería un juego mucho más esperado que el promedio llegando al mismo precio que cualquier AAA.

Además, la baza de las distintas ediciones es algo que puede jugar Rockstar a su favor, sacando más dinero de los más entusiastas y dejando un precio moderado para quienes no pueden o quieren pagar de más por el contenido adicional.

Esa mezcla de varias ediciones a la venta y un online con el que exprimir a los más jugones perfectamente puede significar un precio de salida algo comedido, de esos 80 euros que marca el estándar actual, lejos de los 150 euros de aquel rumor veraniego. Claro que si Rockstar se pone avariciosa todo podría ocurrir.

Ya queda menos, ya queda menos, ya queda menos…

Imagen destacada | Rockstar.

En Xataka | Llevo jugando a la saga GTA desde hace años y esto es lo que le pido al ‘GTA VI’.


La noticia Hemos mirado al pasado para intentar adivinar el precio de GTA VI. Tenemos buenas noticias fue publicada originalmente en Xataka por Javier Lacort .

Technology
Adriana P

Meta, IBM y otras forman The AI Alliance. Su objetivo: defender el desarrollo de modelos de IA Open Source

Meta, IBM y otras forman The AI Alliance. Su objetivo: defender el desarrollo de modelos de IA Open Source

ChatGPT, Bard y Claude son los claros referentes en el segmento de los chatbots de inteligencia artificial desde hace meses. Todos tienen algo importante en común: son desarrollos privados y de código cerrado.

Precisamente eso es lo que ahora empresas como Meta e IBM quieren tratar de combatir con la creación de un consorcio llamado The AI Alliance en el que unen fuerzas con otras 40 empresas más.

El objetivo de este organismo es enfocarse en el desarrollo responsable de modelos de IA, incluyendo herramientas de seguridad, pero también en la defensa y creación de nuevos modelos Open Source de IA, e incluso nuevo hardware para este tipo de proyectos.

Captura De Pantalla 2023 12 05 A Las 12 31 34 Los miembros de la alianza combinan instituciones académicas y científicas con empresas y startups

Meta se ha convertido en claro referente en el ámbito de los modelos de IA liberados bajo licencias Open Source. Su conocida plataforma Llama 2 se ha convertido de hecho en la base de numerosos proyectos que suelen tomar la forma de chatbots que luego sus creadores personalizan y pulen para tratar de mejorar su comportamiento.

Nick Clegg, presidente de asuntos globales en Meta, explicaba en el anuncio oficial que “creemos que [la IA] es mejor cuando la IA se desarrolla de forma abierta — más gente puede acceder a sus ventajas, a crear productos innovadores y a trabajar en la seguridad”.

Entre los miembros de la AI Alliance están Oracle, AMD, Intel, Red Hat y Stability AI, así como importantes instutuciones científicas y académicas como la NASA o las universidades de Yale, Berkeley o Tokio.

Curiosamente en la Unión Europea se anunció en septiembre la creación de la Alianza Europea de la IA (European AI Alliance) con el objetivo de promover una IA “confiable”, aunque no se menciona por ejemplo el trabajo en modelos Open Source.

De hecho, la regulación que está desarrollándose en la UE con la AI Act planteaba riesgos al desarrollo de modelos Open Source, aunque dicha normativa sigue aún en el aire. La iniciativa de Meta e IBM se sitúa como un interesante proyecto de buenas intenciones que podría contribuir a un ecosistema más diverso en el campo de la IA.

Imagen | Hermitvoita | Open Grid Scheduler

En Xataka | Cómo conseguiremos que la inteligencia artificial no se nos vaya de las manos 


La noticia Meta, IBM y otras forman The AI Alliance. Su objetivo: defender el desarrollo de modelos de IA Open Source fue publicada originalmente en Xataka por Javier Pastor .

Technology
Adriana P

China ha empezado a construir un colosal centro de datos en una ubicación completamente inusual: el fondo del océano

China ha empezado a construir un colosal centro de datos en una ubicación completamente inusual: el fondo del océano

Sabemos que uno de los desafíos a los que se enfrentan los centros de datos es mantener la temperatura bajo control. Esta necesidad ha impulsado distintas propuestas que buscan abordarla sin disparar el consumo energético, una característica clave en estos tiempos donde el mundo intenta ser más eficiente para luchar contra el cambio climático. 

En los últimos años hemos visto a empresas como Meta mudar parte de su infraestructura de cómputo a lugares fríos como Luleå, en Suecia, y a Microsoft hacer pruebas en un entorno mucho más ambicioso: el fondo marino de las Islas Orkney, en Escocia. Ahora es el turno de China. El gigante asiático está apostando por centros de datos submarinos. 

China incursiona en los centros de datos submarinos

Según recoge CGTN, Beijing Highlander Digital Technology está cerca de finalizar la construcción de la primera etapa del “primer centro de datos comercial submarino del mundo”. Se trata de una estructura que, en total, constará de 100 cabinas con varias unidades de cómputo cada una y que se beneficiarán de las bondades del clima oceánico.

En concreto, el centro de datos está tomando forma en las proximidades de la isla de Hainan, en el Mar de China Meridional. Para el máximo responsable del proyecto, Pu Ding, dice que los equipos “se enfriarán de forma natural” y serán entre un 40 y un 60% más eficientes a nivel energético que su funcionasen en instalaciones convencionales en la superficie.

Poner centros de datos en el agua se traduce en varios beneficios, según Pu Ding. La densidad de los servidores puede ser mayor, lo que aumenta la potencia de cómputo y, al operar preservados del polvo y del oxígeno, tendrán mayor durabilidad. El experto no lo menciona, pero creemos que hacer cualquier tipo de reparación no será tan fácil en las profundidades.

China Centro De Datos Submarino 2

Los ingenieros necesitaron casi 3 horas para colocar adecuadamente la primera cabina del proyecto, cuyo peso es de 1.300 toneladas, a 35 metros bajo el agua. Recordemos que cada unidad está perfectamente sellada para evitar que cualquier tipo de filtración que pueda afectar a los componentes que, cabe señalar, no están exentos de presentar fallos.

Microsoft, que no está relacionado al proyecto chino, comprobó en sus pruebas que los centros de datos submarinos son viables, aunque también dejó una serie de aprendizaje para una implementación a escala futura. El acceso a las unidades submarinas no es sencillo, requiere de “mares con una calma atípica y de una danza coreografiada de robots”.

Después de las pruebas, la compañía de Redmond ha contemplado llevar sus centros de datos de Microsoft Azure a las profundidades, aunque esto no se ha concretado. La firma china, por su parte, asegura que su centro de datos submarino está destinado a funcionar comercialmente y que no se trata de una prueba, sino que servirá a clientes mientras esté en uso. 

Imágenes: CMG

En Xataka: Hay una gran sorpresa en la lista de supercomputadores más potentes del mundo. Se llama MareNostrum 5 y es español


La noticia China ha empezado a construir un colosal centro de datos en una ubicación completamente inusual: el fondo del océano fue publicada originalmente en Xataka por Javier Marquez .