A la mierda los motores gráficos.

Carradine

RangoFrikazo
Registro
6 Jun 2009
Mensajes
11.152
Reacciones
7.542
Para ver este contenido, necesitaremos su consentimiento para configurar cookies de terceros.
Para obtener información más detallada, consulte nuestra página de cookies.


Lo que se ve en el vídeo es alguien jugando a Doom. Pero sin Doom. No hay motor gráfico, no hay enemigos, jugador, tiros, puertas o llaves. No se ha programado nada del juego. Lo que hay es una IA que va escupiendo imágenes según lo que le llega de los mandos y lo que ha "visto" en vídeos de gente jugando a Doom. Se juega. Es una persona jugando de verdad. Es lo mismo que cuando metéis "quiero a mario bros con la cara de @liachu69" y saca la imagen correspondiente. Pues a esto se le podría escribir "quiero jugar a Doom con liachu69 de soldado, @SPETNAZ de imp, @Alduin de cacodemon, @BILBOKOA de cyberdemon y @Tuzaro de demonio rosa" Y en lugar de una imagen o un video la IA te deja jugar. De momento sólo es Doom pero el principio es el mismo para cualquier otro juego.

Esto es una bestialidad técnica que no se si va a tener utilidad práctica mas allá de curiosidades. El equipo que necesita el invento debe de ser una barbaridad. Pero es un primer paso. A saber hasta dónde llegan.
 
En mi modesta opinión, creo que esto abre un campo interesante a la hora de potenciar todavía más la capacidad gráfica que puede generar una GPU. Hablo sobre todo en términos de interpolación y de cálculos de FPS intermedios. Es decir, estás en un determinado punto X de tu juego de cochecitos o de avioncitos y te diriges, por ejemplo, a determinado punto Y. Bueno, pues gracias a este invento la IA podría unir ambas coordenadas liberando así recursos al equipo porque haría gran parte del trabajo a partir de unos ciertos parámetros dados.

Y además desde un punto de vista del ahorro energético también se podría lograr que las tarjetas y las CPU no se calentasen tanto porque como digo el reparto de carga gráfica y computacional sería mucho más eficiente.

Ahora, eso de entrenar a la IA con el Donkey Kong y que te devuelva la nueva versión del Unreal Engine o del Frostbite XVICCLMIV pues va a ser que no. Por lo menos por ahora.
 
Última edición:
Lo que digo, por cierto, no es tanto un premonición esotérica como algo que en realidad ya se está haciendo aunque en mucha menor escala. Sin embargo todo el futuro apunta hacia allí.

Entonces, básicamente, lo que estábamos haciendo era usar el motor del juego para generar información sobre dónde están las cosas y luego usar eso como entrada para una red neuronal que haría todo el renderizado, por lo que era responsable básicamente de cada parte del proceso de renderizado.

NVIDIA DLSS 10: "Será un sistema de renderizado 100% neuronal que interactuará con el motor de los juegos"
 
Última edición:
La generación y escalado de frames por IA lleva tiempo usándose. DLSS, XeSS, FSR es eso: Renderizar frames a menor resolución que luego se le pasa a una IA para que aumente la resolución y calcule frames extra teniendo en cuenta alguna información mas del juego y los inputs de los jugadores. No es perfecto y nos comemos mas lag y artefactos. Pero se va avanzando y cada nueva versión de cada sistema mejora en algo. La cosa es que se necesita un motor y que los desarrolladores integren el tema en sus motores o tratar las salidas del motor a través de los drivers para que funcione. Necesitas un motor si o si.

Esto va por otro lado. Aquí no hay motor. No se busca sacar un motor. No es "mira el Doom; sácame el Doom engine". Es "mira el Doom y déjame jugar a Doom". Lo cual no parece nada especial. Pero si empezamos a conectar esto con otras cosas que ya hacen las IA la cosa empieza a tener bastante buena pinta. Las IA ya distinguen entre estéticas. Así que si tienes una IA que "entiende" lo que es un Doom se le puede pedir "un Doom con estética medieval" y que nos escupa un Heretic o Hexxen. También tenemos IAs que te sacan imágenes y modelos 3D a partir de croquis y bocetos. Si lo juntas con esto hablamos de hacer nuevo contenido: mapas, enemigos, armas, etc metiendole los concept arts con lo que nos ahorramos modeladores, rigging, animadores, texturas, etc, etc. Eso son DLCs mods de una forma fácil y rápida. Yo creo que tienen entre manos una maquina de hacer clones de juegos con relativamente poco esfuerzo. Si logran que la IA entienda lo que son las mecánicas tendrían un generador de juegos a base de describirle detalladamente el juego y suficientes vídeo de cada cosa. Sería una forma de desarrollo totalmente nueva y sin necesidad de estudiar nada. Sin necesidad de personal especializado.

El problema gordo es que hablamos de juego en streaming. Todo eso no se puede hacer en local. Intel, AMD, Apple, Nivida,... le están dando mucha caña a integrar circuitería específica para IA en sus procesadores. Pero no están pensando en esto. Las NPU son para otros usos. El invento está pensado para ejecutarse en servidores.

Ahora vamos a mirar quién hace esto: GameNGen Gente de Google. ¿Os acordáis de Stadia? Fracasó no por ir mal. Al contrario, tiraba muy bien. Fracasó por tener pocos juegos y tener que comprar cada juego. Que al ser todos de thrid partys no había mucha diferencia en precio con otras versiones si es que llegaba a haberla. Curiosamente esta cosa, desarrollada lo suficiente, te puede sacar juegos rápido, baratos y en mucha cantidad. Perfecto para corregir los que llevó a Stadia al fracaso.

Y ni siquiera tiene por que ser Google la que comercialice esto. Pueden ser otras empresas. Que compitan entre si y todas paguen a Google el servicio.

Por el momento es sólo una curiosidad. Lo mismo ahí se queda. Pero estas cosas cuestan dinero y normalmente las empresas lo sueltan para ganar mas con el tiempo. Dudo mucho que en Google tengan la intención de que esto se quede en una curiosidad.
 
Gracias a dios soy demasiado lerdo para entender de qué estáis hablando, pero lo que oigo me da miedo (PAURA).
Para mí, todo esto es pecado.
 
Nunca igualara a aquel duke nukem porno quebal abrir puertas te ponia gifs porno

Ñuke ñakem le llamabamos en españa coloquialmente
 
Con esto los de Rockstar van a sacar un GTA cada 75 años
 
La generación y escalado de frames por IA lleva tiempo usándose. DLSS, XeSS, FSR es eso: Renderizar frames a menor resolución que luego se le pasa a una IA para que aumente la resolución y calcule frames extra teniendo en cuenta alguna información mas del juego y los inputs de los jugadores. No es perfecto y nos comemos mas lag y artefactos. Pero se va avanzando y cada nueva versión de cada sistema mejora en algo. La cosa es que se necesita un motor y que los desarrolladores integren el tema en sus motores o tratar las salidas del motor a través de los drivers para que funcione. Necesitas un motor si o si.


Yo no he dicho eso. Es algo similiar a si te pusieras a "rellenar" de fotogramas una peli antigua de finales del Siglo XIX de la que sólo tuvieras el 30% del metraje. La IA podría ser entrenada en un determinado motor gráfico y generar ese 70% faltante. Vamos, que no sería pasar de una imagen de baja calidad a una decente, como el DLSS hace, sino generar frames o cuadros por segundo nuevos de la nada. Más que una curiosidad es por donde van a ir los tiros del futuro.
 
Última edición:
Yo no he dicho eso. Es algo similiar a si te pusieras a "rellenar" de fotogramas una peli antigua de finales del Siglo XIX de la que sólo tuvieras el 30% del metraje. La IA podría ser entrenada en un determinado motor gráfico y generar ese 70% faltante. Vamos, que no sería pasar de una imagen de baja calidad a una decente, como el DLSS hace, sino generar frames o cuadros por segundo nuevos de la nada. Más que una curiosidad es por donde van a ir los tiros del futuro.
El DLSS no es sólo para escalar. También genera frames. No de la nada, de la información del juego y de anteriores frames sin hacer render nuevos desde la versión 3. El XeSS desde la versión 1.3 y el FSR desde la versión 3. Doblan y triplican los FPS con esas técnicas. Eso no es futuro es presente desde hace un par de años.
 
El DLSS no es sólo para escalar. También genera frames. No de la nada, de la información del juego y de anteriores frames sin hacer render nuevos desde la versión 3. El XeSS desde la versión 1.3 y el FSR desde la versión 3. Doblan y triplican los FPS con esas técnicas. Eso no es futuro es presente desde hace un par de años.

Si es el presente más que el futuro entonces no sé por qué abres hilo.

Una cosa es que DLSS te rellene todos los fotogramas intermedios de una animación de un puñetazo jugando al Street Fighter y otra muy distinta es esto. Que viene a ser entrenar a la IA con el motor de dicho juego para que cada golpe sea animado de manera distinta. O incluso, que sea contextual con el entorno. Es que vamos, imagínate cómo sería Sifu dentro de varios años.
 
Última edición:
Si es el presente más que el futuro entonces no sé por qué abres hilo.

Una cosa es que DLSS te rellene todos los fotogramas intermedios de una animación de un puñetazo jugando al Street Fighter y otra muy distinta es esto. Que viene a ser entrenar a la IA con el motor de dicho juego para que cada golpe sea animado de manera distinta. O incluso, que sea contextual con el entorno. Es que vamos, imagínate cómo sería Sifu dentro de varios años.
No lo sabes por que como de costumbre no te enteras. Ya dije antes que esto es distinto. Desde el primer post lo vengo diciendo. Todos se han enterado menos tu. Esto no va de generar frames. Va de generar el juego entero sin necesidad de programar ningún motor, ni de dibujar, modelar, animar, componer o editar ningún asset. Le enseñas gente jugando a la IA y te saca el juego que puedes jugar. Eso es lo que llevo diciendo desde el primer post. Pero como eres el peor caso de analfabetismo funcional del foro -y mira que el nivel estaba alto- pues no te enteras de la misa la media.

Gilipollas.

Si sigues con las citas ya sabes lo que te espera.
 
No lo sabes por que como de costumbre no te enteras. Ya dije antes que esto es distinto. Desde el primer post lo vengo diciendo. Todos se han enterado menos tu. Esto no va de generar frames. Va de generar el juego entero sin necesidad de programar ningún motor, ni de dibujar, modelar, animar, componer o editar ningún asset. Le enseñas gente jugando a la IA y te saca el juego que puedes jugar. Eso es lo que llevo diciendo desde el primer post. Pero como eres el peor caso de analfabetismo funcional del foro -y mira que el nivel estaba alto- pues no te enteras de la misa la media.

Gilipollas.

Si sigues con las citas ya sabes lo que te espera.

Yo he explicado que entrenando a la IA con "datos brutos" y encima descontextualizados puede colegir todo un motor gráfico. Es un salto muy superior con lo que tenemos ahora y abre un abanico gigantesco.

Como eres rematadamente idiota, me lo has comparado con el DLSS que no tiene nada que ver. No, el DLSS en cierto modo está siempre al amparo del motor de juego. Es el Tarzán saltando de liana en liana y cierta red de seguridad. Pero lo que nos ocupa sí que se parte de la nada. Más que cuantitativo parece un salto creativo.

Pues eso, que eres idiota perdido y no lo entiendes. Como con lo de Ayn Rand. O cuando me sostenías que Evasión o victoria no es cine de prisioneros. Supongo que estarían encerrados por gusto.
 
Última edición:
Yo he explicado que entrenando a la IA con "datos brutos" y encima descontextualizados puede colegir todo un motor gráfico. Es un salto muy superior con lo que tenemos ahora y abre un abanico gigantesco.

Como eres rematadamente idiota, me lo has comparado con el DLSS que no tiene nada que ver. No, el DLSS en cierto modo está siempre al amparo del motor de juego. Es el Tarzán saltando de liana en liana y cierta red de seguridad. Pero lo que nos ocupa sí que se parte de la nada. Más que cuantitativo parece un salto creativo.

Pues eso, que eres idiota perdido y no lo entiendes. Como con lo de Ayn Rand. O cuando me sostenías que Evasión o victoria no es cine de prisioneros. Supongo que estarían encerrados por gusto.
Gilipollas. El que ha comparado el tema con el DLSS eres tu. El que comparó con la interpolación y generación de frames eres tu. Nada mas llegar lo hiciste, capullo. Ahí están los post. ¿De quién es el tercer post del hilo hablando de interpolación y generación de frames? ¿De quién es ese post, subnormal? Yo te he dicho todo el trato que no tienen nada que ver. Que ya estas otra vez mintiendo sobre lo que dicen los demás sin enterarte siquiera de lo que dicen.

Gilipollas rencoroso. Ahí acumulando agravios que te has buscado tu mismo. En todas esas ocasiones que recuerdas, que tienes presente como demuestras. Yo no hice nada para dejarte en el ridículo intelectual en el que quedaste. Todo lo hiciste tu. Venga, agrega otra a la lista. Que van a ser mas por que con lo capullo que demuestras ser y como estás al quite con cada post que escribo van a ser mas. Otro prueba mas de lo gilipollas que eres.
 
Última edición:
Gilipollas. El que ha comparado el tema con el DLSS eres tu. El que comparó con la interpolación y generación de frames eres tu. Nada mas llegar lo hiciste, capullo. Ahí están los post. ¿De quién es el tercer post del hilo hablando de interpolación y generación de frames? ¿De quién es ese post, subnormal? Yo te he dicho todo el trato que no tienen nada que ver. Que ya estas otra vez mintiendo sobre lo que dicen los demás sin enterarte siquiera de lo que dicen.

Basta con leerme para ver que eso no es cierto porque literalmente hago la distinción:

No sería pasar de una imagen de baja calidad a una decente, como el DLSS hace, sino generar frames o cuadros por segundo nuevos de la nada. Más que una curiosidad es por donde van a ir los tiros del futuro.

El DLSS actual no tiene nada que ver con "generar frames nuevos de la nada" porque es una tecnología que está muy supeditada a lo que recibe: es decir, a los fotogramas de baja resolución que le entrega la GPU para reconvertirlos luego a otra imagen de mucha mejor calidad y liberar de esta manera carga de trabajo al sistema. En ese sentido, es un procedimiento que va sobre raíles.


Una cosa es que DLSS te rellene todos los fotogramas intermedios de una animación de un puñetazo jugando al Street Fighter y otra muy distinta es esto. Que viene a ser entrenar a la IA con el motor de dicho juego para que cada golpe sea animado de manera distinta.

Aquí explico que es como si dibujaras un muñeco de palo y luego alguien le añadiera los músculos de manera perfecta. Lo interesante es ver cómo a partir de datos rudimentarios la IA "aprende" la anatomía del cuerpo humano. Esto es extrapolable a la lógica de un motor gráfico con el que se quiere colaborar. De esta manera se puede trabajar de manera conjunta y mucho más eficiente.


En el enlace que puse, el tipo de Nvidia cochina lo deja todavía más clarinete:

"en un futuro lejano será un sistema de renderizado completamente neuronal que interactuará con el motor de un juego de diferentes maneras"




Si no entiendes algo más tú pregunta, hombre, pregunta sin miedo ni temor. No te quedes con la duda.
 
Basta con leerme para ver que eso no es cierto porque literalmente hago la distinción:



El DLSS actual no tiene nada que ver con "generar frames nuevos de la nada" porque es una tecnología que está muy supeditada a lo que recibe: es decir, a los fotogramas de baja resolución que le entrega la GPU para reconvertirlos luego a otra imagen de mucha mejor calidad y liberar de esta manera carga de trabajo al sistema. En ese sentido, es un procedimiento que va sobre raíles.




Aquí explico que es como si dibujaras un muñeco de palo y luego alguien le añadiera los músculos de manera perfecta. Lo interesante es ver cómo a partir de datos rudimentarios la IA "aprende" la anatomía del cuerpo humano. Esto es extrapolable a la lógica de un motor gráfico con el que se quiere colaborar. De esta manera se puede trabajar de manera conjunta y mucho más eficiente.


En el enlace que puse, el tipo de Nvidia cochina lo deja todavía más clarinete:






Si no entiendes algo más tú pregunta, hombre, pregunta sin miedo ni temor. No te quedes con la duda.
Sigue en tu mundo pensando que lo demás dicen que lo que no dicen y creyendo que no das pena a cada post que escribes. Y por supuesto sin enterarte de nada de lo que se discute que no sabes ni contar los post. Ahí están los post, subnormal, sólo te engañas a ti mismo.

Es para verlo al tío imbécil:

En el enlace que puse, el tipo de otra empresa que no participa en esto Nvidia cochina hablando de otra cosa que no tiene nada que ver por que son desarrollos distintos y separados lo deja todavía más clarinete sin hablar nada de esto:
Mas tonto y se pierde por el camino al nacer.


Pero si sigues con las citas ya sabes lo que te espera: Gilipollas.
 
Última edición:
¿Te das cuenta de que esa IA ha sido entrenada con miles de horas de Doom? Es decir, hace falta un Doom con su motor, sus gráficos y sus reglas para que una IA copie y recree algo coherente. Y eso se hace programando a mano. Aún queda mucho más de lo que dan a entender estas demos virales.

No te la flipes tanto.
 
¿Te das cuenta de que esa IA ha sido entrenada con miles de horas de Doom? Es decir, hace falta un Doom con su motor, sus gráficos y sus reglas para que una IA copie y recree algo coherente. Y eso se hace programando a mano. Aún queda mucho más de lo que dan a entender estas demos virales.

No te la flipes tanto.
No sólo me doy cuenta. Lo he dicho en el primer post. Si lees lo que se ha escrito, lo mismo, ves que nadie está flipando y ha dicho que los resultados ya están aquí o dentro de poco.

Por supuesto que el Doom estaba hecho previamente. Y lo mismo que Call of Duty. Un LOL, Fornite, Souls, etc. Todo está ya hecho. No lo tienen que hacer. Sólo lo tienen que enseñar a la IA y esta te va a escupir el juego si la tienen lo bastante afinada. Esa es la ventaja. En un mundo como el del videojuegos en el que "no hay apenas clones de otros juegos" es algo con mucho interés.

Si quieres algo que no está ya en un juego sólo tienes que hacer el prototipo con las mecánicas y ya vas a tener el "armazón". Sólo tendrías que meter contenido que, como también dije en los textos que no has leído, lo puedes hacer también con IA. Hacer prototipos en Unreal, Unity, Godot, es cosa rápida y fácil.

Si les sale bien. Es una nueva forma de desarrollar juegos. Sin meternos en otros campos. Lo directo son juegos. SI les sale bien que no tiene por qué. Cosa que también he dicho antes.
 
No sólo me doy cuenta. Lo he dicho en el primer post. Si lees lo que se ha escrito, lo mismo, ves que nadie está flipando y ha dicho que los resultados ya están aquí o dentro de poco.

Por supuesto que el Doom estaba hecho previamente. Y lo mismo que Call of Duty. Un LOL, Fornite, Souls, etc. Todo está ya hecho. No lo tienen que hacer. Sólo lo tienen que enseñar a la IA y esta te va a escupir el juego si la tienen lo bastante afinada. Esa es la ventaja. En un mundo como el del videojuegos en el que "no hay apenas clones de otros juegos" es algo con mucho interés.

Si quieres algo que no está ya en un juego sólo tienes que hacer el prototipo con las mecánicas y ya vas a tener el "armazón". Sólo tendrías que meter contenido que, como también dije en los textos que no has leído, lo puedes hacer también con IA. Hacer prototipos en Unreal, Unity, Godot, es cosa rápida y fácil.

Si les sale bien. Es una nueva forma de desarrollar juegos. Sin meternos en otros campos. Lo directo son juegos. SI les sale bien que no tiene por qué. Cosa que también he dicho antes.
Ya, pero si con fotos y vídeos los bugs cantan por soleares en un vídeo juego la cosa puede ser un LOL. Se seguirán necesitando personas que comprueben y arreglen todo el tema, no sé hasta que punto saldrá a cuenta economicamente.

Esto de la IA está mucho más verde de lo que la gente cree. Pero bueno, todo es ir dando pasos.
 
¿Te das cuenta de que esa IA ha sido entrenada con miles de horas de Doom? Es decir, hace falta un Doom con su motor, sus gráficos y sus reglas para que una IA copie y recree algo coherente. Y eso se hace programando a mano. Aún queda mucho más de lo que dan a entender estas demos virales.

No te la flipes tanto.

No es vídeo viral de Facebook como la tontada del Mercadona, es un estudio entre un grupo de investigadores del Google Research y la Universidad de Tel Aviv. Que una IA sea entrenada durante muchas horas con determinado motor de juego y estilo y pueda aprender de él, puede abrir campos interesantes y muy prometedores.

Aquí tienes el paper.
 
Última edición:
No sólo me doy cuenta. Lo he dicho en el primer post. Si lees lo que se ha escrito, lo mismo, ves que nadie está flipando y ha dicho que los resultados ya están aquí o dentro de poco.

Si quieres algo que no está ya en un juego sólo tienes que hacer el prototipo con las mecánicas y ya vas a tener el "armazón". Sólo tendrías que meter contenido que, como también dije en los textos que no has leído, lo puedes hacer también con IA. Hacer prototipos en Unreal, Unity, Godot, es cosa rápida y fácil.

No, eso no es cierto. Si se lee el paper que he enlazado, de donde proviene toda la historia de este hilo, se parece más a un campo de radiancia neural que esas pajas mentales que te sacas de la manga. Lo que decía al principio:

estás en un determinado punto X de tu juego de cochecitos o de avioncitos y te diriges, por ejemplo, a determinado punto Y. Bueno, pues gracias a este invento la IA podría unir ambas coordenadas

Un NeRF no deja de ser un tipo de red neuronal utilizada para representar y generar imágenes tridimensionales altamente detalladas a partir de un conjunto limitado de imágenes bidimensionales. Es decir, no te va a generar nuevos niveles de Doom o elementos cosméticos como si tuvieras un grupo de gnomos programando porque la propia naturaleza del invento está limitada a predecir pero de un entorno ya conocido.

Hoy no tengo tiempo para perderlo contigo, así que pongo a un jefazo de Nvidia que lo explica (sobre todo en el punto 2). Los lloros a él:

Para ver este contenido, necesitaremos su consentimiento para configurar cookies de terceros.
Para obtener información más detallada, consulte nuestra página de cookies.


Y si os interesa profundizar en ese concepto de los NeRF y qué cojones se supone que es, cago aquí un par de vídeos:

Para ver este contenido, necesitaremos su consentimiento para configurar cookies de terceros.
Para obtener información más detallada, consulte nuestra página de cookies.


Para ver este contenido, necesitaremos su consentimiento para configurar cookies de terceros.
Para obtener información más detallada, consulte nuestra página de cookies.
 
No, eso no es cierto. Si se lee el paper que he enlazado, de donde proviene toda la historia de este hilo, se parece más a un campo de radiancia neural que esas pajas mentales que te sacas de la manga. Lo que decía al principio:



Un NeRF no deja de ser un tipo de red neuronal utilizada para representar y generar imágenes tridimensionales altamente detalladas a partir de un conjunto limitado de imágenes bidimensionales. Es decir, no te va a generar nuevos niveles de Doom o elementos cosméticos como si tuvieras un grupo de gnomos programando porque la propia naturaleza del invento está limitada a predecir pero de un entorno ya conocido.

Hoy no tengo tiempo para perderlo contigo, así que pongo a un jefazo de Nvidia que lo explica (sobre todo en el punto 2). Los lloros a él:

Para ver este contenido, necesitaremos su consentimiento para configurar cookies de terceros.
Para obtener información más detallada, consulte nuestra página de cookies.


Y si os interesa profundizar en ese concepto de los NeRF y qué cojones se supone que es, cago aquí un par de vídeos:

Para ver este contenido, necesitaremos su consentimiento para configurar cookies de terceros.
Para obtener información más detallada, consulte nuestra página de cookies.


Para ver este contenido, necesitaremos su consentimiento para configurar cookies de terceros.
Para obtener información más detallada, consulte nuestra página de cookies.

El enlace al Github dónde está colgado ese paper lo puse en mi segundo post de este hilo. Subnormal de los cojones. Que sigues sin enterarte de nada. ¿A quien pretendes engañar? No te acuerdas de lo que has escrito tu mismo en este hilo de un día para otro. No eres capaz de leer y entender este hilo y quieres hacernos creer ahora que puedes con ese paper técnico. Ya hay que ser capullo.

A ver si es verdad que no pierdes mas tiempo conmigo y te buscas a otro para demostrar que tienes la sesera en la caja y con el precinto. Gilipollas.

Ya, pero si con fotos y vídeos los bugs cantan por soleares en un vídeo juego la cosa puede ser un LOL. Se seguirán necesitando personas que comprueben y arreglen todo el tema, no sé hasta que punto saldrá a cuenta economicamente.

Esto de la IA está mucho más verde de lo que la gente cree. Pero bueno, todo es ir dando pasos.
Son los autores los que dicen que buscan otra forma de sacar juegos que sea mas barata. Evidentemente no se habla de que sea gratis ni sin gente. Se habla de distinto y mas barato. Pensando en muchos juegos y variados, claro. No tiene sentido para sacar luego unos cuantos, que sean clones entre si.
 
Última edición:
El enlace al Github dónde está colgado ese paper lo puse en mi segundo post de este hilo. Subnormal de los cojones. Que sigues sin enterarte de nada. ¿A quien pretendes engañar? No te acuerdas de lo que has escrito tu mismo en este hilo de un día para otro. No eres capaz de leer y entender este hilo y quieres hacernos creer ahora que puedes con ese paper técnico. Ya hay que ser capullo.

Por favor, dime en qué parte del paper se afirma que "se le puede pedir "un Doom con estética medieval y que nos escupa un Heretic o Hexxen" (palabras textuales tuyas). Me reí mucho cuando lo leí, lo reconozco.


¿No será que tiene más que ver con lo que comentaba el jefe de investigación de la compañía más importante del mundo en IA acerca de los NeRF como tecnología de mejora tridimensional que es? ¿No será, en definitiva, que no tienes ni pajolera idea y no eres más que un bocachancla que se ha venido arriba?
 
Por favor, dime en qué parte del paper se afirma que "se le puede pedir "un Doom con estética medieval y que nos escupa un Heretic o Hexxen" (palabras textuales tuyas). Me reí mucho cuando lo leí, lo reconozco.


¿No será que tiene más que ver con lo que comentaba el jefe de investigación de la compañía más importante del mundo en IA acerca de los NeRF como tecnología de mejora tridimensional que es? ¿No será, en definitiva, que no tienes ni pajolera idea y no eres más que un bocachancla que se ha venido arriba?
A ver. Tontito que reta a otros a que pongan pruebas de un texto que no has leído. O que no has entendido.

En el paper no se pone ese ejemplo. Ese ejemplo es una cosa mía para ilustrar las posibilidades que se pueden alcanzar. Que no distingues cuando se habla de posibles de cuando se habla de realidades. Cita los párrafos enteros y no saques de contexto frases sueltas subnormal. Que el único que queda mal eres tu. Quedas como el gilipollas que eres que ni se te pasa por la cabeza que el texto completo está ahí, mas arriba y tus torpes manipulaciones saltan a los ojos.

En fin, al paper. En ese paper puedes leer esto:

El paper que Moxica no entiende rebuznó:
Towards a New Paradigm for Interactive Video Games. Today, video games are programmed byhumans. GameNGen is a proof-of-concept for one part of a new paradigm where games are weightsof a neural model, not lines of code. GameNGen shows that an architecture and model weightsexist such that a neural model can effectively run a complex game (DOOM) interactively on existinghardware. While many important questions remain, we are hopeful that this paradigm could haveimportant benefits. For example, the development process for video games under this new paradigmmight be less costly and more accessible, whereby games could be developed and edited via textualdescriptions or examples images. A small part of this vision, namely creating modifications or novelbehaviors for existing games, might be achievable in the shorter term. For example, we might beable to convert a set of frames into a new playable level or create a new character just based onexample images, without having to author code. Other advantages of this new paradigm includestrong guarantees on frame rates and memory footprints. We have not experimented with these directions yet and much more work is required here, but we are excited to try! Hopefully this smallstep will someday contribute to a meaningful improvement in people’s experience with video games,or maybe even more generally, in day-to-day interactions with interactive software systems.
¿Qué cojones entiendes cuando dicen que esperan que los juegos se puedan desarrollar y editar vía descripciones de texto o imágenes de ejemplo? ¿Eh? tipo listo. ¿Qué cojones entiendes? Pues nada. Eres idiota ni traducido sabes lo que significa eso. Pues significa que le puedes pedir juegos y cambios en los juegos con textos e imágenes de la misma forma a como le pides imágenes a otras IAs.

¿Qué quieren decir cuando dicen que, por ejemplo, puedan convertir unos fotogramas en niveles jugables nuevos o crear un personaje nuevo sólo con imágenes de ejemplo. Sin escribir código? Yo te digo lo que quieren decir por que como eres tonto no lo vas a sacar ni en 100 vidas. Eso quiere decir que le puedes pedir cambios en el juego a la AI con ejemplos sin hacer nada mas.

El mas tonto del foro rebuznó:
¿En que parte del paper afirma que...?
:ñeñeñe:

En esa parte del paper. Parte que no has leído o no has entendido. Imbécil.

Venga. Gilipollas, añade a la lista de agravios esa que tienes, esta ocasión. Una vez mas que te dejas en el mayor de los ridículos por ser un gilipollas bocazas que hablas sin entender y sin consultar siquiera lo que se discute. Por que eres tan tonto que tu mismo eres el que te buscas el ridículo.

Tienes un hilo en el general sobre la compra de calzoncillos. Ese es tu nivel. Ahí es dónde puedes aportar algo. El resto del foro, te viene grande. Cuanto antes lo asumas, menos ridículo como este harás.
 
Última edición:
¿Qué cojones entiendes cuando dicen que esperan que los juegos se puedan desarrollar y editar vía descripciones de texto o imágenes de ejemplo?

Pues lo que se te explicó antes. Vuelvo a poner el tweet:

GameNGen is more like a glorified NeRF than a video gen model. A NeRF takes images of a scene from different view angles, and reconstructs the 3D representation of the scene. The vanilla formulation has no generalization capability, i.e. it could not "imagine" new scenes. GameNGen is not like Sora: by design, it could not synthesize new games or interaction mechanics.

Paper:

Neural methods for reconstructing 3D representations have made significant advances over the last years. NeRFs (Mildenhall et al., 2020) parameterize radiance fields using
a deep neural network that is specifically optimized for a given scene from a set of images taken from
various camera poses. Once trained, novel point of views of the scene can be sampled using volume
rendering methods. Gaussian Splatting (Kerbl et al., 2023) approaches build on NeRFs but represent
scenes using 3D Gaussians and adapted rasterization methods, unlocking faster training and rendering times. While demonstrating impressive reconstruction results and real-time interactivity, these
methods are often limited to static scenes.


Vamos, que es muy interesante y prometedor en lo que avance en 3D y con movimiento, pero no tiene absolutamente nada que ver con tus pajas mentales de darle un botoncito y que te salgan el Hexxen 2 listo y horneado; o que los motores gráficos dejen de existir como afirma el título. De verdad, eres tan cuñado que aún pretendes darle lecciones a gente que está dirigiendo el cotarro de la IA en Nvidia a nivel mundial.

Ese es tu nivel.

Es que cualquiera sin idea puede darse cuenta lo que decías al principio: que esto es una "curiosidad". Como mueves las porterías que es un primor de repente esto ya es "un nuevo paradigma" en lo de crear juegos se refiere. Vamos, que no te enteras de nada; que oyes campanas y no sabes dónde.
 
Última edición:
Atrás
Arriba Pie