Crea tu propio ChatGPT en 10 minutos con Ollama, Pinokio y Llama3
S01:E05

Crea tu propio ChatGPT en 10 minutos con Ollama, Pinokio y Llama3

Episode description

¡Bienvenidos a un nuevo episodio de “Se nos va de las manos”! En este episodio, Germán Martín y Galileo nos explican qué son los grandes modelos de lenguaje, cómo funcionan y qué herramientas necesitamos para usarlos en casa. Hablaremos sobre el modelo Llama 3 de Meta, cómo instalarlo y utilizarlo, y compararemos su rendimiento con otros modelos populares como ChatGPT de OpenAI. También exploraremos herramientas como Ollama y Pinokio que facilitan la implementación de estos modelos en nuestros propios equipos.

Descubre cómo puedes usar estos modelos para tareas diversas como la programación, la generación de texto y más, todo desde la comodidad de tu PC. Además, compartiremos consejos para optimizar su uso y discutiremos el impacto de estas tecnologías en nuestra vida diaria.

Prepárate para ver cómo estos modelos de lenguaje nos muestran que la inteligencia artificial, a veces, ¡realmente se nos va de las manos!

Enlaces:

Download transcript (.srt)
0:01

[NO-DO] En esta luminosa jornada, damos la bienvenida a una nueva era tecnológica con el episodio de hoy, donde los vastos horizontes de los grandes modelos de lenguaje se despliegan ante nosotros.

0:11

[NO-DO] Exploraremos cómo estas maravillas de la computación moderna pueden ejecutarse en la propia morada de cada curioso e inquieto oyente, transformando el beincón más humilde en un bastión de conocimiento y desarrollo.

0:23

[NO-DO] Con entusiasmo y rigor abordaremos la manera en la que estos colosos digitales pueden ser domesticados para servir como fieles asistentes de programación.

0:31

[NO-DO] prometiendo una revolución en el modo en que escribimos y entendemos el código.

0:35

[NO-DO] Así, cada entusiasta de la tecnología podrá, desde su estudio o salón, erigir puentes hacia futuros de innovación sin precedentes.

0:42

[NO-DO] Unámonos en este viaje por el troceloso mal de la tecnología avanzada, donde cada descubrimiento nos acerca más a la construcción de una era digital digna de nuestros sueños más audaces.

0:52

[NO-DO] Y recuerda, en "Se Nos Va De Las Manos", cada episodio es una nueva aventura en el mundo fascinante de la tecnología.

0:58

[NO-DO] Sin más preámbulos, damos paso a nuestros ilustres locutores, Galileo y Germán Martín, quienes nos guiarán en esta apasionante travesía.

1:33

[Germán] Bienvenidos un mes más.

1:35

[Germán] Ya estamos aquí otra vez.

1:37

[Germán] Lo vamos consiguiendo, vamos manteniendo la cadencia de un programa mensual.

1:44

[Germán] Bienvenidos, se nos va de las manos.

1:47

[Germán] Estamos aquí, yo me presento, soy Germán Martín y conmigo está Galileo.

1:51

[Germán] ¿Cómo estás?

1:52

[Galileo] Muy buenas a todos.

1:55

[Germán] Bueno, pues el último programa estuvimos hablando, bueno, entre otros temas, hablamos de la presentación del modelo de Llama 3 y hoy lo traemos aquí.

2:09

[Germán] Lo vamos a enseñar en directo.

2:11

[Germán] Vamos a enseñar cómo se puede usar, qué requisitos tiene y nada, vamos a lío.

2:21

[Germán] Vamos a...

2:22

[Galileo] Es importante que nos deis el feedback de qué es lo que os gusta más, de qué queréis que tiremos.

2:28

[Galileo] Como sabéis a Germán se le conocía por Mr. ESP8266.

2:32

[Galileo] Podemos decir ESP32.

2:32

[Germán] ESP32

2:32

[Galileo] Según fue pasando.

2:34

[Galileo] Cuando saquen el ESP64 pues será ese.

2:35

[Germán] Sí, sí.

2:45

[Galileo] Pero vamos, si queréis que tiremos más por ahí o por allá, esta vez estamos haciendo como una introducción a cómo se usan los modelos, que yo creo que puede ser muy interesante.

2:55

[Galileo] Cuando estábamos en programar fácil, hicimos también algunos tutoriales de cómo instalar Visual Studio Code o cómo hacer funcionar un SDR.

3:06

[Galileo] Entonces, el feedback es muy importante para saber por dónde tenemos que tirar.

3:08

[Germán] Para quien no le suene mucho esto de los modelos que acabáis de llegar por aquí, ¿a qué nos referimos?

3:09

[Galileo] Y nada, a ver, ¿qué nos vas a contar, Germán?

3:24

[Germán] Nos referimos a algo similar a lo que tenemos con ChatGPT, que más o menos a todos nos sonará.

3:32

[Galileo] en el mundo, en el mundo, en el mundo.

3:32

[Germán] un modelo de lenguaje al cual le hacemos preguntas y nos responde con una información que se le ha dado durante el entrenamiento.

3:39

[Germán] Hay veces que patina, pero normalmente funciona bastante bien.

3:43

[Germán] Digamos que ChatGPT es la referencia en cuanto a modelos de lenguaje.

3:52

[Germán] Bueno, no ChatGPT, el modelo es GPT, pero bueno, el ChatGPT es la aplicación de chat que tiene OpenAI y es la referencia en cuanto a calidad como el top ahora mismo de modelos de lenguaje.

4:05

[Germán] Hay otros modelos como el de Anthropic, Claude, que hablan bastante bien de él, incluso hay quien dice que lo supera, pero la pega que tiene es que en Europa no se puede utilizar probablemente por restricciones

4:22

[Germán] de privacidad, que bueno, es algo que los divulgadores que hablan de temas de inteligencia artificial pues no están muy de acuerdo, no creen que ..., bueno, no sé, es debatible, es un debate que

4:37

[Galileo] Sí, el servicio de memoria no se puede usar tampoco en Europa.

4:41

[Germán] Exactamente, sí.

4:42

[Germán] Han sacado ahora OpenAI, en ChatGPT, memoria, es decir, que recuerde ciertas cosas de las que le vamos preguntando.

4:52

[Galileo] que es muy útil.

4:53

[Galileo] Por ejemplo, tú coges y dices pues dame una receta y luego tú le dices pero soy diabético y entonces coge y eso ya lo apunta.

4:59

[Germán] Sí.

5:01

[Galileo] No va a apuntar todo, va a apuntar lo que él considera que es importante.

5:05

[Galileo] Luego vas a poder incluso borrar, flaxearle ahí como en la película, esas zonas que tú no quieres que recuerde.

5:12

[Galileo] Pero aquí en Europa toda esa funcionalidad está prohibido usarla por protección de datos.

5:16

[Germán] Bueno, pues eso son aplicaciones que corren en la nube, en ordenadores ajenos al nuestro.

5:25

[Germán] Y aquí de lo que vamos a hablar es correr modelos del mismo tipo, pero en nuestra máquina.

5:32

[Germán] Entonces, para ello, ¿qué necesitamos?

5:35

[Germán] Necesitamos un PC más o menos potente.

5:39

[Germán] con ciertas limitaciones, no hace falta que sea el último modelo de todos.

5:44

[Germán] Sobre todo si tenemos una GPU, es decir, una tarjeta gráfica con memoria suficiente para alojar el modelo.

5:50

[Germán] Normalmente hay modelos de diferentes tamaños.

5:53

[Galileo] Evitivo.

5:53

[Germán] El mínimo que se recomienda para poder correr estos modelos son 8 gigas en la memoria de la tarjeta de vídeo.

6:04

[Germán] No hace falta, si alguien se quiere introducir en este mundo, no hace falta irse al último o el ultimísimo modelo de tarjetas gráficas de NVIDIA.

6:14

[Germán] Por ejemplo, la 4090 está por unos 2.500 euros, que es una barbaridad.

6:18

[Germán] Hay tarjetas que están muy bien de precio, sobre todo las que están mejor en relación calidad-precio.

6:28

[Germán] son las de la serie 30, la 3060, la 3070 están muy bien y por 200, 250, 300 euros tienes una gráfica con hasta 12 gigas de memoria que yo es la que tengo, lo que vais a ver va a ser con una 3060 modelo de 12 gigas que le tengo que dar las gracias a César García del canal de YouTube de Laura Maker

6:56

[Germán] que la recomendó ahí.

6:58

[Germán] Yo, la verdad, que no tenía mucha idea y gracias a esa recomendación, pues decir la verdad que estoy súper contento de haberle hecho caso.

7:05

[Galileo] Y funciona también para juegos, me refiero a que

7:08

[Germán] y funciona para juegos.

7:09

[Germán] Si eres jugón, pues ya te digo, por una inversión razonable, tienes una máquina muy buena para jugar y también para experimentar con modelos de inteligencia artificial, no solo los LLM, los modelos de lenguaje, sino también modelos de imagen, modelos de voz, que ya hablaremos otro día.

7:14

[Galileo] Bueno.

7:33

[Germán] Bueno, pues hoy vamos a hablar de Llama 3, hablaremos también de otros modelos y vamos a ver cómo tenerlo en casa.

7:41

[Galileo] un inciso a ver si reconocéis la voz de dónde viene la que ha sonado de introducción y todavía queda pendiente de dos programas anteriores que descubráis la canción que suena del juego antiguo de qué juego es entonces nada bueno vale lo pondré por twitter

7:59

[Germán] La canción yo creo que para el próximo ya lo vamos a decir.

8:03

[Germán] Y si tenéis curiosidad, si habéis oído el programa desde el principio, en el primer minuto es una voz muy característica, sobre todo si tenéis cierta edad, si ya peináis alguna cana y si vivís en España, os sonará mucho esa voz.

8:23

[Germán] Y nada, si queréis tener curiosidad sobre las anteriores, si oís el primer minuto, no hace falta oír el programa entero, si oís el primer minuto de los dos programas anteriores vais a ver la otra voz, también es bastante conocida en España.

8:37

[Galileo] Pero no es mal dato.

8:37

[Germán] No doy más datos.

8:38

[Galileo] Es súper reconocible.

8:43

[Germán] ¿Cómo hacemos esas cosas con la voz?

8:45

[Germán] Ya hablaremos otro día.

8:46

[Germán] Hoy vamos a hablar de modelos de lenguaje.

8:49

[Germán] Entonces, lo primero que tenemos aquí Bueno, aquí tengo la página abierta de Yama 3 Yama 3 es de Meta Meta igual Facebook, Instagram, Whatsapp ¿Vale?

9:04

[Germán] Pero que quede una cosa clara No hay problemas de privacidad porque este modelo va a correr en tu máquina sin conexión a Internet ¿Vale?

9:12

[Galileo] ¡Gracias!

9:12

[Germán] Todo se queda en casa, no hay problemas de preguntarle

9:16

[Germán] Bueno, si tienes una empresa y tienes miedo de darle información confidencial de tu empresa, pues puedes utilizar un modelo como este para utilizarlo a la hora de ayudarte a hacer documentación, por ejemplo, o a hacerle preguntas.

9:33

[Germán] En cuanto a rendimiento, se acerca bastante a ChatGPT.

9:37

[Germán] Y ya te digo, no hace falta un ordenador

9:41

[Galileo] y son los modelos en coma flotante directos o tienen cuantificación cuantización

9:47

[Germán] Estos, pues si te digo la verdad, no lo sé.

9:50

[Germán] Ahora lo vamos a ver porque vamos a ver cómo a la hora de instalarlos vamos a utilizar una herramienta muy sencilla tanto de instalar como de usar y ahí tienes información de los modelos.

10:02

[Germán] Ahora lo vemos y comentamos qué es eso de la cuantización.

10:09

[Germán] Vale, bueno, pues esto es una comparativa entre el modelo de Yama 3, el modelo de este que pone 8B, es que tiene 8 billones... Bueno, 8 billones americanos, es decir, 8.000 millones de parámetros.

10:21

[Germán] Es decir, hay una red neuronal que tiene 8.000 millones de parámetros corriendo en tu máquina, que es... Solo de imaginarme el número ya me explota la cabeza.

10:32

[Germán] El modelo 8B normalmente se puede ejecutar en máquina local.

10:39

[Germán] ¿Qué tal se me oye, por cierto?

10:40

[Galileo] Sí, bien, bien, bien.

10:40

[Germán] ¿Se oye bien?

10:41

[Germán] Bien.

10:44

[Germán] Luego tenemos el modelo de 70.000 millones de parámetros, que es ella.

10:48

[Germán] Hace falta una tarjeta más seria, sobre todo por memoria, porque ese modelo ocupa unos 40 gigas.

10:56

[Germán] y una tarjeta gráfica que tenga 40 gigas, ya estamos hablando de mucho dinero.

11:02

[Germán] De esto nos olvidamos.

11:04

[Germán] Aquí lo compara con Yama 3 con el modelo Gemma de Google, el 7b también es un modelo local, el modelo Mistral que es de

11:14

[Germán] de Antropic.

11:16

[Galileo] creo que sí

11:17

[Germán] No recuerdo quién es Mistral.

11:20

[Germán] Son remodelos equivalentes en cuanto a número de parámetros y aquí resaltan, lógicamente, esta es la página de meta y resaltan lo bueno, pero lo que vienen a decir es que es superior a estos otros dos modelos.

11:33

[Galileo] y eso son como benchmark aunque había mucha controversia con los benchmark porque decían que había algunos benchmark que se se podían haber introducido de hecho también este fin de semana hablaban en muchos sitios de que la que digamos que la inteligencia artificial había aprendido a mentir para al final la inteligencia artificial lo que busca es conseguir el objetivo que tú lo has planificado sea lo que sea y si mentir es una de las herramientas que se puede usar pues la usa

12:00

[Germán] Sí.

12:03

[Galileo] y estaban ahora asustados un poco porque mentía.

12:06

[Germán] Claro, si a la hora de entrenarle se le hacen las mismas preguntas que se le hacen en estos Benchmark, al final aprende a resolverlo.

12:18

[Germán] Estos diferentes, esto que veis aquí, el MMLU, el GPQA, son una forma organizada

12:27

[Germán] digamos, científica, de comparar modelos.

12:31

[Germán] Es decir, no vamos a ir directamente a preguntarle a HGPT, a Yama, a Yema, cuál es el sentido de la vida, por ejemplo, porque unos responderán mejor que otros o unos de manera más original que otros, pero no tenemos... Ahí sería un resultado subjetivo.

12:48

[Germán] A lo que nos interesa es tener un resultado subjetivo, darle mismas pruebas de tipo, pues imagino que serán

12:53

[Germán] de tipo matemático, de tipo lógico, deductivo y demás, y pues son una serie de pruebas estandarizadas.

13:01

[Galileo] hay una curiosidad y es que muchos de estos modelos cuando tú le preguntas de quién eres y tú de quién eres pues cogen y los modelos que no no no los ha hecho en este caso pues el de Mistral pues no lo ha hecho OpenAI pero han utilizado se han conectado a través de los plugins de la API

13:20

[Germán] Bueno.

13:20

[Galileo] perdón, se han conectado a ChubbGPT entonces si tú les preguntas y tú de quién eres muchos sin ser de OpenAI te dicen que son de OpenAI porque resulta que se han entrenado con el modelo de OpenAI entonces es una curiosidad pero vamos que tú coges a un modelo de estos de la llama y le dices y tú de quién eres y que no te asustes dice ah pues yo soy de OpenAI y es que tienen ese sesgo

13:44

[Germán] O hay quien también le pregunta de qué fecha es su entrenamiento, y mienten también.

13:53

[Germán] O qué tamaño de contexto, es decir, cuántos datos de las últimas preguntas le has hecho y qué de las respuestas recuerda, y también mienten.

14:03

[Germán] Porque son preguntas...

14:08

[Germán] Yo entiendo también que los que entrenan el modelo no quieren ser totalmente transparentes en ese aspecto.

14:15

[Germán] Pero bueno, vais a ver ahora.

14:16

[Galileo] Bueno, no sé si fue en Mistral que cogieron y le metieron un montonazo de información y de repente luego le pusieron una información de cómo se hace una pizza o algo así.

14:31

[Galileo] en un texto muy grande porque muchas veces lo que pasa con el contexto es que o coge lo del principio o coge lo del final pero lo del medio como que se olvida y entonces el modelo dijo ah los ingredientes de la pizza son estos por cierto creo que estás probando a ver qué tal de listo soy entonces es súper súper curioso

14:38

[Germán] Sí, sí.

14:58

[Germán] Eso lo oí, sí, que era capaz de detectar si le estabas poniendo a prueba.

15:02

[Galileo] exacto esos datos sí y ésta no sale ahí pero ésta esta semana apareció un gpt2 que hubo también bastante controversia con eso

15:03

[Germán] Es lo que comentábamos, que es probable que algunos de los entrenamientos estén sesgando estas pruebas.

15:12

[Germán] Pero van apareciendo pruebas nuevas para que eso no ocurra.

15:23

[Germán] GPT-2L.

15:24

[Galileo] L sí que parece que es una versión pequeñita o bueno a lo mejor es fíjate que vamos a tener un anuncio en breve de OpenAI y hablan algo de eso aunque todo el mundo dice que será de los busca el buscador que se prevé vaya a lanzar pero también puede ser de un modelo reducido qué importancia tiene tener modelos reducidos que un modelo reducido lo puedes meter en un móvil entonces es lo que estoy buscando que Apple está trabajando también en ello

15:25

[Germán] Sí.

15:35

[Germán] En un móvil.

15:49

[Germán] Eso es... Bueno, un modelo reducido también te elimina la necesidad de tener una GPU.

15:58

[Germán] Es decir, si tienes un PC sin GPU,

16:02

[Germán] medianamente potente.

16:02

[Galileo] Sí.

16:02

[Galileo] Sí.

16:03

[Germán] También hay modelos, lógicamente, que funcionan bastante peor, pero funcionan y para algunas cosas pueden servir.

16:12

[Germán] Pero hay modelos de ese tipo y lo que vamos a enseñar también se pueden instalar.

16:16

[Germán] Bueno, entonces, ¿qué vamos a utilizar para instalar YAML?

16:22

[Germán] Pues vamos a utilizar una herramienta que se llama Oyama.

16:26

[Germán] Oyama es como el Docker de los modelos de lenguaje.

16:31

[Galileo] explica para los que no sepan nada que es un docker

16:36

[Germán] ¿Cómo explico Docker sin hablar de contenedores?

16:40

[Germán] Docker es, por ejemplo, una forma de ejecutar un servidor web con un comando solamente.

16:47

[Germán] Un servidor web o un... ¿Qué voy a decir?

16:53

[Germán] Dime un servicio de...

16:54

[Galileo] a ver yo diría como al final tú lo que tenías antiguamente que fue el bombazo de la nube y todo esto fue la virtualización entonces al principio lo que se hacía era tú virtualizabas una máquina entera cogías y tenías tu bios metías tu sistema operativo por ejemplo cuando metes un lamp que es un servidor web pues lo metías encima de ese sistema operativo pero entonces aparecieron los de docker y dijeron para qué vamos a

17:00

[Germán] ¿No?

17:20

[Galileo] virtualizar toda una maquina si solo necesitamos virtualizar unos ciertos servicios para dar ese LAN entonces al final los contenedores es eso es la mínima expresión de una máquina virtual que te permite ejecutar esos servicios que tú necesitas para dar ese servicio para un servidor de lo que tú quieras y es mucho más eficiente

17:45

[Germán] Para el caso, lo que nos facilita Docker es que tenemos una forma muy fácil de ejecutar un servicio muy complejo.

17:57

[Galileo] Bueno, yo creo que es muy importante.

17:57

[Germán] es una forma con una línea de comandos, ponemos en marcha algo que nos costaría mucho tiempo poner a andar.

17:57

[Galileo] Yo creo que es muy importante.

17:58

[Galileo] Yo creo que es muy importante.

17:59

[Galileo] Yo creo que es muy importante.

17:59

[Galileo] Yo creo que es muy importante.

18:01

[Galileo] Yo creo que es muy importante.

18:03

[Germán] Entonces, OYAMA es el equivalente a esto para los modelos de lenguaje.

18:04

[Galileo] Yo creo que es muy importante.

18:05

[Galileo] Yo creo que es muy importante.

18:06

[Galileo] Yo creo que es muy importante.

18:07

[Galileo] Yo creo que es muy importante.

18:08

[Germán] Vamos a tener, pues si queremos lanzar un modelo YAML 3, pues ponemos OYAMA, funciona sobre línea de comandos, luego veremos que hay formas de hacerlo de manera gráfica, pero si queremos lanzar el modelo YAML 3, ponemos OYAMA RUN YAML 3.

18:23

[Germán] Y ya está.

18:24

[Germán] Arranca, se lo descarga si hace falta.

18:26

[Germán] O sea, se busca un repositorio donde tiene todos los modelos, se lo descarga.

18:29

[Galileo] en la ciudad de Bogotá, en la ciudad de Bogotá, en la ciudad de Bogotá, en la ciudad de Bogotá, en la ciudad de Bogotá, en la ciudad de Bogotá, en la ciudad de Bogotá.

18:31

[Germán] Ojo también, si hacéis pruebas con esto, tened espacio en disco porque los modelos ocupan varios gigas.

18:36

[Germán] Y si tienes varios modelos, pues puedes llenar el disco muy rápido.

18:42

[Germán] En Windows, por ejemplo, yo no he encontrado formas de decirle que en vez de en el disco C, me lo guarde en el disco D. Hay formas, pero bueno, seguro que hay alguna forma, pero no es algo sencillo.

18:52

[Germán] Bueno, entonces, ¿qué necesitamos para ejecutar Yammer 3?

18:58

[Germán] Pues descargarnos e instalar Oyama.

19:03

[Germán] Tenemos aquí el enlace.

19:05

[Germán] Por cierto, para quien nos esté escuchando en el podcast, la dirección es oyama.com.

19:11

[Germán] Vale, entráis ahí y tenéis un botón grande de descarga y hay versión para macOS, para Linux y para Windows.

19:17

[Germán] La versión para Windows lleva poquito tiempo, pero os puedo decir que funciona estupendamente.

19:23

[Germán] ¿Y qué modelos podemos ejecutar?

19:26

[Germán] Hemos dicho que Llama, Llama 2, Llama 3, y aquí tenéis un enlace de modelos.

19:31

[Germán] Vamos a ver qué modelos puede ejecutar.

19:34

[Germán] Vemos aquí el Llama 3.

19:35

[Germán] Es un modelo, si entramos dentro del modelo, vemos las diferentes variantes.

19:40

[Galileo] Bueno, gracias.

19:40

[Germán] Aquí lo veis.

19:42

[Germán] Tenemos la variante 8B, que ocupa 4,7 gigas.

19:48

[Germán] perfectamente con una gráfica de 8 gigas se puede ejecutar lo podrías ejecutar también en cpu si pero vais a tener una velocidad muy muy muy muy lenta vale vemos que hay también un modelo 70 b 40 gigas nada olvidado sino si

20:05

[Germán] Si podéis ejecutarlo, lo sabréis, porque tendréis una gráfica que os habrá costado una buena pasta.

20:12

[Germán] Y luego está el modelo Instruct, que está orientado a resolución de problemas de programación, por lo que tengo entendido.

20:20

[Germán] Yo lo he probado para programación y van bien.

20:24

[Galileo] pero lo han hecho ellos o los usuarios que tiene una

20:24

[Germán] Y luego tienes este Instruct, que es el modelo de 8.000 millones.

20:27

[Germán] O sea, está basado, es un fine tuning, ¿cómo se llama?

20:34

[Germán] Sí, una optimización a partir del modelo estándar 8b para que se dedique a... Sí, yo creo que sí.

20:44

[Germán] Este es el modelo oficial.

20:48

[Germán] ¿Vale?

20:51

[Galileo] ¿Cómo es?

20:52

[Galileo] ¿Cuánti...?

20:53

[Galileo] ¿Cuánti...?

20:53

[Germán] Cuantización.

20:55

[Germán] Sí, aquí dice que este modelo tiene la arquitectura YAML de 8.000 millones de parámetros y la cuantización

20:55

[Galileo] ¿Cuánti...?

21:02

[Germán] a 4 bits.

21:05

[Germán] Por ejemplo, todos estos 8.000 millones de parámetros internamente, cuando se hace el entrenamiento, se guardan como coma flotante de 16 bits o 32 bits

21:20

[Germán] que si eso lo multiplicáis vais a ver que sale un número mucho mayor de estos 4,7 gigabytes entonces lo que se hace es, se ha visto que aunque se recorte la precisión de esos parámetros el modelo sigue funcionando bien entonces se ha aprovechado eso para meter modelos muy grandes que no cabrían en una tarjeta gráfica comercial se recortan para que sí quepan y se dejan en 4,7

21:28

[Galileo] Ya.

21:46

[Galileo] que se metan.

21:48

[Galileo] Allí había algún comentario que decían que es la cuantización en este caso funcionaba un poco peor que en el modelo anterior y eso era porque los pesos utilizaban hasta la última de la coma flotante el último decimal para para que tuviera para darle contexto pero bueno eso será...

22:07

[Germán] Ahora lo vamos a ver y vamos a poder dar nuestra opinión.

22:13

[Germán] Veis que hay un montón, no me he puesto a parar.

22:19

[Germán] Aquí tienes por ejemplo de cuantificación de 8 bits, de 5 bits, de 4 bits, hay un montón, hay muchísimos.

22:25

[Galileo] Claro, cuanto menos, cuanto más bits se usan, pues más ocupa el modelo.

22:31

[Germán] Claro, el más pequeño que hay es el de... Ah, no, mira, aquí hay uno de dos bits.

22:36

[Germán] Y ahora se estaba hablando de los modelos de un bit, pero bueno, no vamos a entrar en eso.

22:40

[Galileo] eso es un mundo si a alguno le interesa que le eche un ojo ahí nos lo explican como en un en 4 bit eso se llama nivel para un byte dividido en dos tiene dos niveles es la forma de decir 4 bit y es un mundo un mundo bueno un montón

22:41

[Germán] Aquí tenéis el... Sí.

23:02

[Germán] Entonces, ¿qué necesitamos para ejecutar este modelo?

23:04

[Germán] Pues simplemente, tenéis instalado ya Oyama y nos vamos a la línea de comandos y ejecutamos oyama run y llama 3.

23:12

[Germán] Y ya está, entonces vamos a verlo.

23:14

[Germán] Yo me voy aquí, abro una ventana de comando que no sé si se está abriendo.

23:21

[Galileo] No la estoy viendo.

23:22

[Germán] Aquí.

23:22

[Galileo] Ahora sí.

23:23

[Germán] No, porque está aquí.

23:26

[Germán] Y pongo oyama run

23:31

[Germán] Llama 3.

23:33

[Germán] No se lo voy a descargar porque ya lo tengo descargado, ya he estado jugando con él antes.

23:36

[Germán] Pero bueno, vais a ver que no hay que hacer más, no hay que instalar más ni nada más.

23:41

[Germán] Hay otras herramientas de inteligencia artificial que son bastante laboriosas de instalar porque hay que instalar muchas dependencias.

23:50

[Germán] Esto ya lo hace todo de forma automatizada.

23:53

[Germán] Y bueno, veis que me pregunta aquí que le escriba un mensaje.

23:59

[Germán] ¿Qué le pregunto?

24:03

[Galileo] pregúntale de dónde ha sido programado o quién es el... pero va super rápido

24:11

[Germán] ¿Quién te ha entrenado?

24:16

[Germán] ¿Veis que eso lo puedo preguntar en español?

24:18

[Germán] ¿Vale?

24:19

[Germán] Y me responde, bueno, lo leeré por encima.

24:23

[Germán] Soy un modelo de lenguaje, y va súper rápido.

24:26

[Germán] Soy un modelo de lenguaje basado en inteligencia artificial, por lo que no tengo un entrenador humano tradicional.

24:31

[Germán] En su lugar fui entrenado utilizando grandes conjuntos de datos y algoritmos de aprendizaje automático.

24:37

[Germán] Mi capacidad para entender y responder a preguntas fue posible gracias al trabajo conjunto de varios equipos de investigación y desarrollo del campo del lenguaje natural, bla, bla, bla, bla.

24:45

[Germán] Y al final, pues, no se moja.

24:46

[Germán] No veo qué nombre.

24:47

[Galileo] y nos dice si quién ha pagado ese entrenamiento quién lo ha pagado mira mira lo pone es meta

24:50

[Germán] Venga, ¿quién ha pagado el entrenamiento?

24:57

[Germán] Dice, una pregunta interesante.

25:00

[Germán] Mi entrenamiento fue financiado por Meta.ai, una empresa dedicada a desarrollar tecnologías de inteligencia artificial para mejorar la forma en la que las personas interactúan con la información y se comunican entre sí.

25:12

[Germán] Pues vale, muy bien.

25:13

[Germán] Sabéis que funciona súper rápido.

25:16

[Germán] Si vemos, por ejemplo, tengo aquí lo que me está ocupando en memoria, a ver si lo puedo mover.

25:16

[Galileo] en el mundo de la tecnología.

25:26

[Germán] Oyama funciona en texto, lo que pasa que tiene un API

25:32

[Germán] Tiene un API que puedes, por ejemplo, programar un interfaz de usuario que es hecho en web o hecho en una aplicación que llamea o llama.

25:42

[Germán] O utilizarlo desde programa.

25:44

[Galileo] Si le dices que te responda, que te de la respuesta en formato html, ¿es capaz?

25:45

[Germán] Entonces... Dame la respuesta formateada en HTML para...

26:01

[Germán] publicar en la web y lo ponen con los tags de html e incluso le puedes pedir que te programe dame el código de Arduino del programa Blink para encender y apagar Google Edge a ver si lo sabe

26:33

[Germán] Aquí vemos que lo está haciendo, hace el programa, incluso lo pone en formato Markdown y además te lo explica, que es algo que también hace ChagPT, te da el programa y además te dice la explicación, por la variable tal, se usa para esto, te da la explicación.

26:38

[Galileo] Sí.

26:51

[Galileo] Sí, sí, sí.

26:51

[Germán] Si estáis acostumbrados a utilizar ChagPT, sabréis el formato que lo hace.

26:58

[Germán] Vale, quería enseñar lo que me está ocupando en memoria el modelo.

27:02

[Germán] ¿Vale?

27:03

[Germán] Veis que tengo 12 gigas y me está ocupando 6,8.

27:06

[Germán] Estoy utilizando la gráfica para alguna otra cosa más, como un giga se está usando para otra cosa, o sea que unos 5 gigas y medio es lo que está ocupando este modelo.

27:21

[Germán] ¿Vale?

27:24

[Germán] Vale, entonces, bueno, habéis visto que está bien, pero... Vale, en barra de interrogación puedes poner variables.

27:28

[Galileo] si le das a la barra interrogación y si le das a now, show para ver que te dará la información que hemos visto antes show info y luego la lista

27:37

[Germán] ¿Cómo?

27:39

[Germán] Show, vale.

27:42

[Germán] Show dice que te da información del modelo.

27:46

[Germán] Si digo show info, te da el grado de cuantización, la familia... Esto imagino

27:54

[Galileo] A ver cómo es.

27:56

[Germán] A ver, licencia... Bueno, ahí te hace toda la licencia.

27:56

[Galileo] Hay licencias comerciales y otras que no son comerciales, que se pueden usar en inglés.

28:04

[Galileo] Sí.

28:06

[Germán] A ver, dame la licencia resumida en español.

28:16

[Germán] No sé si eso lo guarda... La licencia que rige mi código es licencia Apache 2.0.

28:25

[Germán] Permiso, el propietario del código, tú, el usuario, tiene derecho a utilizar, copiar, ¿cómo?

28:30

[Galileo] ¿Y sabe que datos está anotado?

28:33

[Galileo] ¿Le puedes preguntar qué datos es?

28:34

[Galileo] ¿Y sabe los datos que se ha utilizado?

28:40

[Galileo] es decir todos los libros que ahí había bastante controversia también con OpenAI que decían que había utilizado libros de que no había pedido permiso y entonces en cambio en Meta sí que habían utilizado todo abierto y todo que es reproducible o sea tú puedes coger toda esa información y simular ese

29:03

[Galileo] si tienes la pasta para poder hacer el entrenamiento pues llegarías al mismo modelo que han llegado ellos porque el modelo digamos la gracia de todo esto no es hacer la interconexión y todos los procesos que tienes en el modelo en sí sino cuando lo entrenas es los pesos que tienes y eso se consigue haciendo el entrenamiento que es lo que ha hecho el metal y está genial que te den de dónde han tirado para hacerle

29:09

[Germán] Bueno, pues aquí responde.

29:30

[Germán] No sé si efectivamente la respuesta será cierta, pero te dice que utiliza un dataset que se llama Common Crawl.

29:39

[Germán] que es un dataset gigante que contiene más de 50 millones de páginas web, lo que permite aprender sobre estructuras de texto, vocabulario y patrones lingüísticos.

29:47

[Germán] Se ha tragado también la Wikipedia entera.

29:49

[Germán] Se ha tragado otro dataset que se llama BookCorpus, que es un dataset que contiene más de 5 millones de páginas de libros electrónicos.

29:57

[Germán] Otro que se llama OpenWebTest, un conjunto de datos que contiene más de 10 millones de páginas web.

30:02

[Germán] Otro que se llama Avenue,

30:04

[Germán] que contiene una variedad de textos en línea incluyendo noticias, blogs, foros y otros tipos de contenido y otro que es BookCorpus, que ya estaba repetido arriba.

30:15

[Germán] que dice que contiene más de 2 millones de páginas de libros electrónicos y el otro decía que más de 5 millones.

30:20

[Germán] Bueno, aquí yo creo que ha patinado un poco, pero bueno, yo creo que sí queda una idea de lo que ha utilizado.

30:21

[Galileo] de la comunidad.

30:27

[Germán] También cuando se habla de modelos de lenguaje, hay dos tipos de los que son utilizables en local.

30:33

[Germán] Hay dos tipos, unos que son modelos de lenguaje o modelos en general completamente abiertos, en los cuales tenemos la arquitectura del modelo,

30:43

[Germán] y el dataset, con lo cual podemos reproducir ese entrenamiento, esos son modelos completamente abiertos, y los modelos de libre uso, que son modelos que se nos dan como están y no nos dan opción a entrenarlos desde cero, si luego sí que se pueden hacer optimizaciones y entrenamientos parciales, que es lo que se llama el fine tuning.

31:06

[Germán] Bueno, entonces hemos visto que sí, que está muy bien, pero que es un poco feo.

31:11

[Germán] Entonces lo cerramos.

31:11

[Galileo] Sí, la interfaz ahí es la pega, digamos.

31:15

[Galileo] Pero va súper rápido.

31:18

[Germán] Vamos a ver dónde lo tengo.

31:21

[Germán] Cerramos esta ventana.

31:26

[Germán] Oyama no era esto que habéis visto.

31:29

[Germán] Ese programa que hemos arrancado era un interfaz porque Oyama está residente, es un servicio dentro del ordenador.

31:38

[Germán] Entonces, no tengo que ejecutar nada ya para llamarlo.

31:41

[Germán] Entonces, cuando lo uso con... Bueno, en Oyama tenemos una interfaz que es bastante... Hay varios, pero el que más me gusta es este que se llama OpenWebUI.

31:54

[Galileo] Este es el programa que tú has instalado, que es el que te da el interface con la API que tiene.

31:55

[Germán] Vamos a buscar aquí OpenWebUI.

32:01

[Germán] Lo tengo aquí, lo tenía aquí.

32:04

[Germán] Es un proyecto de código abierto que tiene un repositorio en GitHub

32:10

[Germán] ¿Dónde está Github?

32:15

[Germán] No lo encuentro.

32:16

[Germán] A ver si busco aquí.

32:21

[Germán] Open Web UI Github.

32:28

[Germán] Vale, aquí está.

32:32

[Germán] Está aquí el código y también la explicación de cómo instalarlo.

32:36

[Germán] Normalmente este tipo de software es hacer clonar el repositorio en un directorio con JIT.

32:45

[Germán] No vamos a entrar ahí porque si no nos tiraremos mucho, pero básicamente es copiar el repositorio, copiar los archivos y ponerlos en un directorio de tu máquina.

32:56

[Germán] Y luego esto tiene un script, me parece,

33:00

[Galileo] Rumput 2H, sí, viene yo.

33:02

[Germán] ¿Tiene un install?

33:03

[Galileo] Puntuat, también.

33:05

[Germán] No, esto no tiene un install.bat Normalmente lo tendrá aquí.

33:13

[Germán] Features... How to install.

33:18

[Germán] Se puede ejecutar en Docker.

33:21

[Germán] Si os llama, está en tu ordenador.

33:23

[Germán] Si está en una máquina diferente... Se puede utilizar en Docker.

33:29

[Germán] Yo no lo tengo en Docker, estoy ejecutando el repositorio.

33:32

[Germán] Lo tengo en Windows, pero en Linux sería igual.

33:36

[Galileo] pero el linux no tiene apuntado el linux supongo que por instalar tantas cosas y probar tantas cosas

33:42

[Germán] Es un servidor web en TypeScript, con lo cual funciona en cualquier cosa.

33:48

[Germán] Yo creo que funciona en Python.

33:53

[Germán] Tiene un requirements.

33:59

[Germán] O sea, pues lo acabo de instalar y no me acuerdo cómo lo he hecho.

34:04

[Germán] No, no, lo tengo.

34:06

[Germán] A ver.

34:07

[Germán] Bueno, luego os dejaré en las notas del programa el vídeo de YouTube donde he visto cómo se instalaba esto.

34:23

[Germán] Lo que conseguís una vez instalado... Ah, ya sé con qué lo he instalado.

34:27

[Germán] Con una herramienta que se llama Pinocchio.

34:29

[Galileo] y ya veo que funciona bien o sea lo has utilizado aparte de para esto para otras o

34:30

[Germán] Por eso no recordaba...

34:35

[Germán] Pinocchio es otra aplicación que se instala y es como una tienda de aplicaciones de herramientas de inteligencia artificial.

34:50

[Germán] Sí tengo otras pero con la única que lo he hecho así un poco en serio ha sido con esta, es la primera que me

34:56

[Germán] que me he instalado.

34:56

[Germán] Entonces Pinokeo es también un ejecutable para Windows, para Mac y Linux que se instala y es una tienda de aplicaciones.

35:03

[Germán] Entonces aquí lo que he hecho ha sido buscar Ollama

35:06

[Galileo] Y con

35:06

[Germán] y me salen dos resultados hay uno que se llama chatbot.yaml y el otro open web UI entonces desde aquí puedo decir descargar e instalar y ya está botón, botón y no hay que hacer nada vale se puede hacer como ponerla en el repositorio pero esto nada no olvidaros de lo que he dicho antes no hay que hacer copia ni nada es simplemente Pinocchio.com a ver lo pongo aquí Pinocchio Pinocchio la dirección es Pinocchio.computer

35:38

[Germán] Es una herramienta súper sencilla, tiene un montón de aplicaciones.

35:41

[Germán] Si quieres investigar te da para perder todo el tiempo libre que tengas.

35:46

[Galileo] de todo, de actitud.

35:49

[Germán] De reconocimiento de imágenes también.

35:53

[Germán] que quieras.

35:53

[Germán] Mira, por ejemplo, para hacer imágenes de cómics, te puedes volver loco.

35:58

[Germán] Muy probable, también hay que tener cuidado una cosa, y hacemos referencia al nombre del programa, de ese no vale de las manos, y es que todo esto está evolucionando tanto que es probable que alguno de los proyectos, cuando lo instaléis, pues por lo que sea no funcione, ¿vale?

36:12

[Germán] Eso puede pasar, pero con Pinocchio, digamos que esto pasa mucho menos.

36:18

[Germán] porque siempre hay un mantenedor de cada uno de los proyectos que se encarga de tenerlo al día.

36:23

[Germán] Aquí hay cantidad de proyectos

36:28

[Germán] Pues nada, ahí tenéis trabajo.

36:30

[Germán] En YouTube también hay mucha información, ¿vale?

36:33

[Germán] Si buscáis Pinocchio, pues Pinocchio en YouTube, os seguro que encontré vídeos sobre algunos de estos proyectos y os dice si merece la pena o no.

36:42

[Germán] O sea, igual si no tenéis tiempo, alguna otra persona puede haber ya gastado su tiempo en analizarlo y bueno, tenéis la información ahí.

36:52

[Germán] Entonces,

36:54

[Germán] Hemos instalado Yama, hemos ejecutado el modelo de Yama 3.

37:00

[Germán] Ahora nos hemos instalado Pinocchio.

37:06

[Germán] Nos hemos instalado el Open Web UI.

37:09

[Galileo] un poco más.

37:10

[Germán] Estos son los modelos que tengo instalados.

37:16

[Germán] Vamos aquí y le damos a... ahora se está ejecutando, por eso aquí no aparece Run, pero aparece Start, me parece.

37:26

[Germán] Aquí está el modelo, veis que aquí hay algo dando vueltas y está conectado, está funcionando.

37:32

[Germán] Yo lo podría parar, o sea que eso está funcionando por detrás.

37:39

[Germán] lo que tenemos que abrir es esta URL, 127.0.0.1, es decir, la máquina local y el puerto 8000.

37:44

[Germán] Y si os dais cuenta, si habéis utilizado una de estas GPT, veis que el interfaz de usuario es calcado.

37:50

[Galileo] en el proceso.

37:53

[Germán] Y esto es una interfaz que utiliza Oyama con el modelo que quieras, de todos los modelos de Oyama,

38:00

[Germán] que recordad que están aquí en los modelos, tenéis todos los modelos, también hay una buena ristra de modelos, que se pueden seleccionar.

38:13

[Germán] Entonces aquí me da la opción de ejecutar los modelos que tengo instalados, por ejemplo, Llama 3, sería uno.

38:21

[Germán] Le decimos arrancar un nuevo chat, seleccionamos el modelo,

38:27

[Germán] La configuración se puede utilizar con usuario y contraseña porque guarda el histórico de chats que has hecho, con lo cual aunque sea en local, si compartes el ordenador con otra persona no puede ver los

38:51

[Germán] los chats que has hecho con el modelo.

38:53

[Germán] Bueno, no lo puede ver.

38:54

[Germán] Seguramente, si se mete en el sistema de archivos, como está todo local, pues sí que se puede, pero bueno, eso ya es otro tema.

39:01

[Galileo] ¿Quieres decir?

39:02

[Germán] Entonces, aquí podemos probarle y le preguntamos, por ejemplo, ¿cuál es el sentido de la vida?

39:12

[Germán] Y vais a ver... Bueno, la primera vez tarda un poquito porque ahora mismo está cargando el modelo.

39:17

[Germán] vale el modelo pero veis que en cuanto se carga funciona rapidísimo no es como con chat gpt que según la ocupación una vez va más rápido otra vez va más lento aquí siempre va a ir a la misma velocidad si tienes un si tienes un pc más nuevo pues más potente irá más rápido y si tienes uno menos potente pues irá un poquito menos rápido pero básicamente esto depende de la tarjeta gráfica que tengas

39:30

[Galileo] cuando tú le dices que le gusta o que no gusta

39:45

[Germán] Vale, y bueno, veis que se puede utilizar igual que ChagPT.

39:55

[Germán] Sí, porque puedes configurar que envíe telemetría.

40:02

[Germán] Bueno, no sé si a Oyama o a los de WebUI.

40:05

[Galileo] y un test to speak porque tiene un altavoz ahí.

40:07

[Germán] Sí, tiene también lo que no sé si funciona, creo que funciona.

40:11

[Germán] A ver.

40:13

[Germán] Bueno, sí, sí funciona, pero utiliza el audio del sistema, con lo cual se puede configurar.

40:19

[Germán] Es decir, en la configuración sí que puedes conectarle un modelo de voz.

40:23

[Germán] No lo he probado.

40:24

[Germán] También puedes conectarle un modelo de generación de imágenes, por ejemplo, Automatic 11.11.

40:30

[Germán] Se puede conectar también.

40:32

[Germán] Es decir, sí, puedes conectar Whisper también.

40:33

[Galileo] también, o sea que tiene un tipo de whisper.

40:40

[Germán] Tienes que tenerlo instalado y corriendo en la misma máquina aparte.

40:44

[Galileo] Whisper para los que no vengan de nuevas es un sistema que es un voz tu texto entonces tú le hablas y funciona muy bien y convierte esa voz a texto.

40:56

[Germán] Funciona espectacularmente bien.

40:59

[Galileo] en un programa eso nosotros lo utilizamos para que genere los subtítulos entonces Germán puede decir algo y no llegó a decirlo pero era bastante obvio lo que iba a decir y fue flipante porque Whisper lo dijo o sea dice bueno ya no lo dices tú pues tú lo digo yo es a veces que la IA da un poquito de miedo en ese aspecto pero hace ese tipo de cosas

41:15

[Germán] Sí, lo he adivinado.

41:23

[Germán] Qué bueno, qué bueno.

41:25

[Germán] Lo que veo aquí es que se pueden añadir varios modelos a la vez.

41:28

[Germán] Eso no he visto lo que es.

41:30

[Germán] Mira, por ejemplo, hay un modelo que es el StarCoder.

41:35

[Germán] StarCoder que es un modelo para programación.

41:39

[Germán] Es exclusivo para programación y solo Stunning.

41:41

[Galileo] a nuestro compañero autopilot wow

41:43

[Germán] Una especie de autopilot que se puede utilizar también en... Hay una extensión para utilizarlo en Visual Studio Code.

41:53

[Germán] Y es un experto en programación.

41:55

[Germán] La pega que tiene, o limitación, es que solo se pone a hacer preguntas en inglés.

41:59

[Germán] A ver, puedo hacer... Hola.

42:02

[Germán] Bueno, voy a hacer un chat nuevo.

42:05

[Germán] Un chat nuevo, selecciono el modelo de Starcoder.

42:08

[Germán] Y creo recordar que no... A ver, hablas...

42:12

[Germán] español y me dice lógicamente como he cambiado el modelo tiene que cargarlo vale aquí también influye la velocidad del disco donde tienes guardado el modelo entonces mira ves hace una cosa rara pero si le dices en inglés write a code in Node.js

42:42

[Germán] To calculate number p using fractional series.

42:57

[Germán] Creo que es así.

42:58

[Germán] A ver qué hace.

43:00

[Germán] Aquí sí que... ¡Uy!

43:02

[Germán] Se ha liado, yo creo.

43:05

[Germán] Sí.

43:06

[Galileo] igual cada vez que te lo dejo ahí te lo pruebo así y no sé qué hacer y cógelo sí ya se ha utilizado otro, lo ha cargado súper rápido ya ya ya

43:08

[Germán] Yo creo que por el contexto se ha liado.

43:11

[Germán] Vamos a intentarlo.

43:12

[Germán] Voy a copiarlo.

43:13

[Germán] Copy.

43:16

[Germán] Creo uno nuevo.

43:17

[Germán] Ahora vamos a utilizar otro para comparar, otro modelo de programación.

43:22

[Germán] A ver.

43:25

[Germán] Mira, aquí sí que lo hace.

43:29

[Germán] No, no, el mismo.

43:30

[Germán] Claro, ya lo tiene en memoria.

43:32

[Germán] lo tiene en memoria.

43:33

[Germán] Veis que lo hace muy rápido.

43:34

[Germán] Hay veces que el formato... Esto también le pasa a HGPT, con lo cual... Pero bueno, el código lo usa.

43:39

[Galileo] Sí, pero eso es el interfés que utilizan ellos, que de repente se ha metido ahí... ...un programa haciendo.

43:45

[Germán] Pero, a ver...

43:49

[Germán] Esto no es importante porque normalmente este modelo lo vamos a utilizar dentro de Visual Studio Code y el código lo va a poner en la línea.

44:00

[Galileo] Pero te están metiendo ahí de un usuario...

44:01

[Germán] No, yo creo que se está liando.

44:04

[Germán] Ha entrado en un bucle porque hay muchas veces... Esto sí lo he visto yo que ha pasado, que empieza a repetir la misma información todo el rato.

44:09

[Galileo] y está hablando de Mongo y mira ahí te dice... Dios santo.

44:11

[Germán] Nada, nada.

44:11

[Germán] Mongoose.

44:13

[Germán] Bueno, no, no, sigue, sigue, lo paro.

44:16

[Germán] Vamos a hacer la misma pregunta a otro modelo que es el Code Llama, que está basado en Llama, creo que 2.

44:23

[Germán] No sé si es Llama 2 o Llama 3.

44:25

[Germán] A ver, tiene aquí la información.

44:28

[Germán] No, bueno, este es Code Llama.

44:29

[Germán] Este es un modelo de 13.000 millones de parámetros que ocupa bastante más, pero no llega por poquito a los 12 gigas que tengo.

44:40

[Germán] Entonces, yo creo que

44:40

[Galileo] tendrás que abrir una ventana nueva, ¿no?

44:42

[Galileo] Porque...

44:42

[Germán] Sí, mejor abrir una ventana nueva para que no utilice el contexto.

44:45

[Germán] Vamos a darle aquí.

44:46

[Germán] Seleccionamos code llama y le pongo la misma pregunta.

44:53

[Germán] A ver qué dice.

44:54

[Germán] También ahora tiene que cargarlo.

44:56

[Germán] Voy a ver que no

44:57

[Galileo] sí en el tipo de preguntas por lo que se ve porque yo al principio también ponía por favor o please o no sé qué dicen que es mejor no ponerlo porque si lo le pones el please el cool you el no sé qué al final se te es que te ve muy formal y se enrolla todavía más o sea las respuestas son más largas entonces por eso es mucho mejor no ponerle el por favor

45:22

[Germán] Mira, este sí que me lo ha hecho bien.

45:25

[Germán] No entro en si está bien programado esto.

45:26

[Galileo] Un saludo.

45:30

[Germán] Yo imagino que sí, porque está la fórmula de pi.

45:34

[Germán] Es la serie que define al número pi según la serie de Gregory Leibniz.

45:39

[Germán] Esto es correcto.

45:42

[Germán] Y aquí lo aplica.

45:45

[Germán] Y se supone que sí.

45:46

[Germán] Esto es una forma de aproximar pi.

45:50

[Germán] Entonces hemos visto que modelos diferentes dan respuestas diferentes.

45:54

[Germán] Esto es nada más que prueba y error.

45:56

[Germán] Te pueden dar pista las diferentes reviews que haya por YouTube.

45:59

[Galileo] es muy importante para todo incluso utilicéis hecha gpt que eso me lo comentaba el otro día mi hijo que están poniendo hacen trabajos y hay gente que ni lee nada entonces directamente dice claro que te puede ayudar y bla bla bla bla bla bla

46:17

[Galileo] espero que esto haya sido de ayuda y lo ponen en el trabajo o sea por favor yo creo que es muy útil para la educación pero hay que leerlo porque muchas veces además el contenido que da a veces se les va un poco y lo que te da no tiene nada que ver con lo que tú le estás pidiendo entonces o a lo mejor se lo has pedido de una forma no adecuada entonces por eso nos ayudan este tipo de herramientas pero nos hay que revisarlo y en muchos por ejemplo

46:29

[Germán] Ché.

46:47

[Galileo] está utilizando bueno Gemini te da siempre tres opciones y muchas veces la primera no es la buena entonces para temas por ejemplo de programación tienes que coger y ir a otra porque la primera no es la buena

47:02

[Germán] Bueno, para otra cosa que quería enseñar, si le intentas hacer una pregunta a este modelo que no es sobre programación, pues te va a decir que le puedo hacer la misma que le he hecho antes.

47:18

[Germán] Igual me deja mal, que esto a veces no responde siempre lo mismo.

47:22

[Germán] ¿Cuál es el sentido de la vida?

47:25

[Germán] Y creo que Code Llama sí que atiende en español.

47:29

[Germán] Y dice Code Llama.

47:31

[Germán] Pues sí, aquí sí.

47:33

[Germán] Probablemente como está basado en, pero antes lo pregunté y me dijo, no soy un modelo genérico.

47:38

[Germán] Entonces solo puedo responder cosas de programación.

47:41

[Galileo] al final cuando generáis una imagen en programas de estable difusión se utiliza una semilla y esa semilla es la que lanza hacia dónde va a tirar y luego en estos modelos seguro que en algún sitio podéis programar cuánto de imaginativo quieres que sea o sea cuánto se va la semilla

47:58

[Germán] Sí.

48:00

[Galileo] mismas preguntas en momentos distintos te pueden dar respuestas distintas sobre todo cuanto más le dejas que se le vaya digamos la imaginación porque puedes decir que sea más estricto o menos estricto

48:15

[Germán] No sé si hay algún ajuste de los modelos, pero probablemente sí que lo haya.

48:19

[Germán] Aquí están los modelos, pero no veo que haya.

48:25

[Germán] Bueno, hay otro modelo que está muy bien, a ver si lo veo aquí en la página de Oyama, que es el modelo este pequeñito, el que había aquí arriba del todo, es el Phi3, que es un modelo de 3,8 billones de parámetros.

48:43

[Germán] que este es de Microsoft y está también bastante bien.

48:47

[Germán] Vamos a descargarlo, porque no lo tengo descargado.

48:51

[Germán] Creo que lo hacía aquí.

48:54

[Germán] Si pongo run lo ejecuta, pero puedes hacer pull o llama pull.

48:59

[Germán] No, lo borro aquí y cambio este run por pull.

49:07

[Germán] Y se lo va a descargar.

49:09

[Germán] Ocupa solamente 2.3 gigas.

49:13

[Galileo] luego aquí supongo que si dependiendo de quién es el que sirve el modelo pues en algunas páginas irá más rápida y en otras irá súper lento

49:23

[Germán] Y luego una vez que esté descargado pues ya lo tenemos, ya no hace falta volverlo a descargar y lo podemos usar.

49:32

[Germán] Y si se actualiza el modelo también lo puedes actualizar.

49:38

[Galileo] ¿Tienes que refrescar o ya te lo habrá...?

49:42

[Germán] Pues no lo sé.

49:44

[Germán] A ver, si busco aquí... Sí, efectivamente.

49:49

[Galileo] Supongo que tienes que refrescar la página para que refresque...

50:01

[Germán] Vale, entonces hago uno nuevo, selecciono Phi.

50:05

[Germán] No sé, hago una pregunta que tal vez le gusten hacerle.

50:08

[Germán] Este probablemente falle, por eso modelo...

50:12

[Galileo] ¿Cuál es tu especialidad?

50:15

[Germán] Es tu especialidad.

50:19

[Germán] Y probablemente vaya mucho más rápido.

50:22

[Germán] Atención.

50:23

[Germán] Lo carga.

50:24

[Germán] Va a tardar poco porque es un modelo pequeño.

50:33

[Germán] Inmediato.

50:35

[Galileo] ¿Cuántos idiomas valen?

50:36

[Germán] Espera, para quien no lo esté viendo.

50:38

[Germán] Como inteligencia artificial, no tengo una especialización personal en la misma medida que un humano.

50:43

[Germán] Sin embargo, puedo procesar y analizar grandes cantidades de información en diversas áreas como ciencia, tecnología, ingeniería, humanidades y más.

50:51

[Germán] ¿Cuál?

50:51

[Germán] ¿Qué me decías?

50:52

[Galileo] ¿Cuántas ideas más es capaz de manejar?

50:55

[Germán] ¿Cuántos idiomas manejas?

50:57

[Galileo] Bueno, por eso se lo pones mal a ver si lo entiende.

51:02

[Galileo] Ha puesto Kunat.

51:03

[Germán] A ver.

51:03

[Germán] Venga, va.

51:06

[Germán] A ver cuánto tarda en responder.

51:07

[Germán] Es que va rapidísimo.

51:08

[Galileo] Puede entender y generar texto en múltiples idiomas incluyendo pero no limitado al español, inglés, francés, alemán, chino, simplificado, ruso, portugués e italiano.

51:16

[Galileo] Mi capacidad para manejar diferentes lenguajes depende de la calidad de los datos con los que he sido entrenado y mi programación lingüística está diseñada para ser lo más inclusiva posible en términos de idiomas y diálectos.

51:27

[Germán] Dame la misma respuesta en inglés.

51:36

[Germán] I can understand, generated text in multiple languages, bla bla bla, lo mismo exactamente.

51:39

[Galileo] Y esto corriendo en local y con un modelo de 3 gigas.

51:42

[Galileo] Es increíble.

51:42

[Germán] Sí, y este modelo probablemente funcione aceptablemente en CPU, sin una gráfica.

51:49

[Germán] Solamente tienes que instalar Oyama, cargar el modelo y a funcionar.

51:55

[Galileo] A ver, ahí Intel, AMD, otros están trabajando para que los modelos no solo corran en Nvidia.

52:03

[Germán] en gráficas.

52:04

[Germán] Ahí sobre todo AMD está bastante potente, lo que pasa es que todo eso depende de las librerías que utilizan por debajo, la librería de Torch, hay varias y unas están más optimizadas para

52:14

[Galileo] que bueno, Intel tiene OpenVINO que con OpenVINO lo que hace es intentar que todo se optimice y entonces tiras contra la GPU de Intel, contra la CPU de Intel incluso tiene unas cuantas aceleradores de otro tipo que son como chips específicos para las... no me acuerdo ahora como las llaman las MPU o las VTU tienen otras que son para... pero que entonces utiliza esas distintas zonas

52:36

[Germán] Sí, el MPU, sí.

52:44

[Galileo] para para procesar pero bueno esto es una ahora mismo el que más el que más tira es envidia pero que están intentando otros en añadir para que haya más diversificación existen además programas que lo que haces lo que hacen es parecido a lo llama

53:06

[Galileo] funcionan en local y lo que te dicen es cuando los arrancas te dicen qué modelos son los mejores para el hardware que tú tienes.

53:12

[Galileo] Miran la CPU que tú tienes, mira si tienes una GPU, una gráfica, miran si tienes mucha memoria o poca y te dan las opciones de los modelos que van a funcionar en tu máquina.

53:21

[Germán] Qué bueno, qué bueno.

53:24

[Germán] Bueno, entonces hemos visto que Open Web UI es una interfaz para Oyama, pero aquí viene otra forma de verlo.

53:37

[Galileo] Ah, yo pensaba que esto no lo ibas a enseñar, lo vas a enseñar.

53:41

[Germán] Los que programéis conocéis lo que es esto.

53:43

[Germán] Esto es Visual Studio Code.

53:45

[Germán] Hay una extensión que se llama Continue.

53:48

[Germán] Si habéis utilizado alguna vez Copilot, brutal, brutal.

53:53

[Germán] Hay quien no le gusta.

53:55

[Galileo] Yo no lo he usado nunca, pero...

53:57

[Germán] Brutal, sobre todo cuando tienes que hacer cosas repetitivas te ahorra muchísimo tiempo.

54:02

[Germán] Continue no lo he utilizado a fondo.

54:04

[Germán] He estado pagando unos meses, por supuesto, unos 10 euros al mes.

54:08

[Galileo] Sí, sí.

54:09

[Germán] he estado pagando algunos meses que he estado programando, he estado pagando Copilot, ayuda un montón, ¿vale?

54:15

[Germán] Pero ahora he tenido una temporada que no programaba, lo cancelé, y justo vi esto, digo, pues esto lo tengo que probar, ¿vale?

54:22

[Germán] Entonces, ¿qué es Copilot?

54:23

[Germán] O sea, ¿qué es Continue?

54:26

[Germán] Continue es una extensión de código abierto, gratuita, que te permite ejecutar... Es un frontend, es decir, una interfaz para modelos de lenguaje.

54:37

[Germán] soporta varios proveedores de modelos de lenguaje, entre ellos Oyama, pero también OpenAI, es decir, se puede conectar con GPT, se puede conectar con Gemini, se puede conectar con Cloud, es decir, con los modelos tanto locales como en la nube, de pago y gratuitos.

54:58

[Germán] Y, bueno, entre ellos, pues ya lo he dicho, Oyama.

55:01

[Germán] Entonces aquí seleccionas el modelo que quieres.

55:04

[Germán] ¿Veis que son los mismos modelos que tenías seleccionado?

55:06

[Galileo] y el que acaba de instalar se lo tiene ahí

55:08

[Germán] el que acabo de instalar ya lo tiene ahí.

55:11

[Germán] Entonces es lo mismo, es otro interfaz de Oyama.

55:15

[Germán] Entonces puedo, digo voy a hacer un nuevo y le puedo hacer las mismas preguntas.

55:19

[Galileo] y tienes como una ventana de contexto y otra o sea una ventana donde y otra de programación si le dices el bling de arduino

55:26

[Germán] A ver, tiene varios modelos, uno que usas para, esto es una parte de chat que puedes utilizar para programación o para chat genérico.

55:37

[Germán] seleccionaríamos un modelo de, por ejemplo, el code llama.

55:42

[Germán] Digo, dame el código del programa Blink

55:55

[Germán] en arduino.

55:57

[Germán] Es un código muy sencillo, digamos el hola mundo de arduino que enciende y apaga un led cada segundo.

56:04

[Galileo] Si, el siguiente ejemplo es más lento.

56:06

[Germán] Entonces si lo doy aquí utilizando code llama la primera vez va a tardar de nuevo porque tiene que cargar el modelo.

56:13

[Germán] Yo veo aquí la memoria que empieza a subir 8, 6, yo creo que ya lo ha cargado.

56:25

[Germán] Aquí lo veis, va un pelín más lento, pues no sé por qué, creo que me ha ocupado parte de memoria del sistema.

56:32

[Germán] Yo creo que hay demasiadas cosas corriendo.

56:35

[Galileo] Sí, pero bueno, es un ejemplo.

56:38

[Germán] No sé si... Sí, es verdad.

56:39

[Galileo] Además, tú lo has preguntado en castellano, te lo está comentando en castellano.

56:45

[Germán] Pero bueno, vemos que él... Yo antes las pruebas que he hecho funcionaban mucho más rápido, igual que lo hemos visto antes en la web.

56:50

[Germán] Como le estamos haciendo perrerías, seguramente tiene algo que...

56:53

[Galileo] Sí, que su modelo tiene más de 13 billones, o sea, es un modelo

56:55

[Germán] Sí, este cabe justo en 12 gigas, o sea, en una gráfica de 12 gigas cabe perfectamente.

57:01

[Germán] Y bueno, lo veis que aquí me ha generado el código.

57:07

[Germán] Vale, eso está bien.

57:09

[Germán] Pero también puedes decir, no, aquí digo crear un nuevo archivo de texto.

57:14

[Germán] Voy a poner uno de C. New field.

57:23

[Galileo] con uno de bueno en en C vale eh lo voy a decir yo eh

57:31

[Germán] Creamos un proyecto de Arduino.

57:33

[Germán] Y aquí ya me dice usa ctrl y para generar código, pues digo ctrl y y me dice pregunta.

57:50

[Galileo] pues dile por ejemplo crea en c un programa para iterar los 100 primeros números primos a ver si funciona y te digo si está optimizado o no

57:56

[Germán] en c, será los cien primeros números primos.

58:09

[Germán] Veis que lo estoy haciendo en español, tenéis que tener en cuenta si el modelo soporta diferentes idiomas.

58:15

[Germán] Normalmente los modelos pequeñitos soportan solamente inglés y este que es más grande.

58:22

[Germán] Probablemente, bueno, no lo sé si está optimizado.

58:25

[Germán] ¿Lo está cargando?

58:26

[Germán] ¿Lo ha descargado?

58:26

[Germán] Ah, no, no, está cargado.

58:28

[Germán] Y no sé qué está haciendo.

58:31

[Germán] No sé si está... No, esto de aquí no.

58:31

[Galileo] Abajo, abajo.

58:37

[Germán] Estos son errores de inicialización, pero por lo que sea no está funcionando.

58:45

[Germán] A ver, voy a cerrar esto porque esto seguía abierto.

58:50

[Germán] Digo, stop.

58:58

[Germán] Antes lo he hecho y me ha rellenado aquí el código súper bien.

59:02

[Galileo] a lo mejor es que tienes que empezar... es que yo no he usado nunca dice enter o confirm or expect to run escape ¿cuál era el ejemplo de Arduino por ejemplo?

59:18

[Germán] No, no, pero no está funcionando.

59:21

[Germán] Voy a hacer una cosa, que es parar la instancia de Oyama, que lo tengo... Uy, es que no está.

59:29

[Germán] No está.

59:30

[Galileo] se ha caído

59:32

[Germán] No sé.

59:32

[Galileo] Se me va a enojar un poco el caballo.

59:33

[Germán] A ver.

59:34

[Germán] A ver.

59:39

[Germán] Ah, vale, me dice... Mira, este es el... Este es el log de Oyama.

59:45

[Germán] Vale, y dice aquí, invalid option provided.

59:49

[Germán] A ver si la configuración... Por aquí le tengo puesto que para el chat utilice por defecto Yamateres y para el auto... ¿Cómo se llama?

1:00:01

[Germán] ¡Ah!

1:00:01

[Galileo] es que es arco de 7b y abajo tenía se lo llama code llama 13 entonces cambiarle abajo y pone el de 7b el de ir a más rápido además que cambies en la esquina de abajo en la donde le preguntabas dice

1:00:03

[Germán] Ganleche.

1:00:06

[Germán] Vale, vale, vale, vale, vale, vale.

1:00:09

[Germán] Es verdad.

1:00:16

[Germán] ¿Cuál?

1:00:21

[Germán] No, a ver, porque esto corresponde con esta parte de modelos y lo que está en el código corresponde con este otro.

1:00:29

[Germán] Ah, mira dónde está.

1:00:31

[Galileo] y descarga y carga cada uno de ellos.

1:00:36

[Germán] Lo está haciendo al final.

1:00:38

[Germán] Lo que no sé si está utilizando... O sea, no sé qué está utilizando, pero ves que lo está programando.

1:00:42

[Germán] Y dime tú si tiene la optimización que esperabas.

1:00:47

[Germán] Probablemente no.

1:00:52

[Germán] Estas herramientas no te convierten en un programador experto.

1:00:54

[Germán] Es decir, si sabes programar, te ayudan.

1:00:56

[Germán] Si no sabes programar, te pueden enseñar a hacer cosas, pero no te van a hacer un programador profesional en dos días.

1:01:04

[Galileo] no no no no no está nada optimizada bueno que es una pasada el que te haga eso y luego el ve como tu programa si te cumplen si del estilo te

1:01:08

[Germán] No está nada optimizado.

1:01:09

[Germán] Probablemente no.

1:01:10

[Germán] Si lo pasamos por chatGPT, chatGPT suele hacer bastantes buenas optimizaciones.

1:01:15

[Germán] Pero bueno, todo esto está empezando.

1:01:26

[Germán] A ver si yo le hago aquí, le pongo, yo que sé, void... No, aquí, vamos a poner bool comprueba gpio y a ver si hace algo.

1:01:50

[Galileo] pero entonces ya está mirando todo el rato lo que escribe de eso a de repente meterle un cepillo yo si te hubiera programado ahí tampoco sabría por dónde vas a tirarlo y de repente hacerlo de él

1:01:53

[Germán] Si se le pasa al contexto, se le pasa a todo.

1:01:55

[Germán] No me hace nada.

1:02:12

[Germán] No, pero comproba el GPIO y puede interpretar que puede ser arduino y que me ofrezca algo.

1:02:20

[Germán] Esta parte no la he probado mucho, pero en Copilot es inmediato.

1:02:23

[Galileo] y eso en autopilot sí que te lo hacía.

1:02:31

[Germán] En cuanto escribes, te he dado aquí el texto en gris y si le das tabulador lo aceptas y hay veces que te hace incluso una función completa.

1:02:39

[Germán] Le das, por ejemplo, el prom en un comentario.

1:02:45

[Germán] Función que comprueba el estado de un pin de entrada-salida.

1:03:01

[Germán] pero no hace nada.

1:03:04

[Germán] A ver, continúe, porque está activado aquí, aquí se ve que está activado.

1:03:14

[Germán] Estaba autocomplete, autocomplete, no lo sé.

1:03:18

[Galileo] supongo que necesitará más contesto pero bueno que el poder tener este tipo de herramientas en local aparte de que te bueno hacer la inversión en la gráfica pero que luego después no tienes que pagar a nivel de que todo tu código no salga afuera porque si no al final tu código cuando sale no sé cómo serán las pero ellos lo pueden por ejemplo en Gemini ya te dicen que todo lo que tú escribes y lo pueda programar

1:03:45

[Galileo] para que lo puede ver un humano con lo cual al final tú le estás dando código que pueden utilizar y es una función súper chula y súper optimizada y ya la ha aprendido y si otro le pregunta le va a dar esa forma.

1:03:48

[Germán] Para entrenar.

1:04:05

[Germán] Pues nada, yo creo que como introducción está bien.

1:04:09

[Germán] ¿Cuánto llevamos?

1:04:09

[Germán] Nos hemos alargado un rato.

1:04:12

[Galileo] El contador, pero al final queríamos hacer uno cortito y me da que no sé

1:04:15

[Germán] Yo creo que nos hemos ido una hora o ahí pico, pero bueno.

1:04:18

[Germán] Pues nada, seguiremos hablando de temas de inteligencia artificial si vemos que os interesáis por algún tema en concreto.

1:04:29

[Germán] Bueno, si os interesa algún tema en concreto, decidnoslo.

1:04:32

[Germán] Lo podéis poner en YouTube.

1:04:34

[Germán] Digamos que es lo más sencillo.

1:04:36

[Germán] Nos hacéis algún comentario en el canal de YouTube.

1:04:41

[Germán] Y, bueno, pues podemos ir adaptándonos a los temas que nos sugiráis.

1:04:47

[Germán] Si no, yo creo que tenemos aquí un filón con el tema de modelos de voz.

1:04:47

[Galileo] Sí.

1:04:47

[Galileo] Mhm.

1:04:54

[Germán] Tenemos pendiente.

1:04:54

[Germán] Tenemos pendiente también modelos de imagen.

1:04:58

[Germán] Y bueno, algo que me gustaría hacer es enseñaros cómo hacer las enradillas estas que hacemos con voces conocidas o voces, digamos, falsificadas.

1:05:14

[Germán] ¿Vale?

1:05:15

[Germán] Haremos también un juego de cambiarnos la voz, Galileo y yo.

1:05:22

[Galileo] eso es bueno para que entendáis lo fácil que es ahora mismo que te graben

1:05:24

[Germán] Sí.

1:05:28

[Galileo] con que tengan una foto tuya y tengan un poco de audio son capaces de imitarte con lo cual eso es importante decírselo sobre todo a nuestros mayores para que estén atentos y normalmente pues siempre lo utilizan hay algo dramático para que tengan que reaccionar e intentar engañarlos entonces yo alguna de estas herramientas ya se las he enseñado a mis padres para que vieran

1:05:32

[Germán] Eso es.

1:05:53

[Galileo] que fíjate lo fácil que es cambiar mi voz esa persona que está hablando no soy yo y suena como yo entonces cuando les dices eso luego enseguida dicen así si es verdad no eres tú pero pero da el pego entonces es bueno que lo sepan para para evitar engaños porque al final sabemos que los malos como ganan dinero cada vez invierten más dinero en estafar a gente entonces es importante que

1:06:19

[Galileo] que pues eso que les comentemos que existen estas cosas eso de temas también de temas de estafas y de temas de ciberseguridad también podemos hablar entonces al final es importante que nos deis vuestros comentarios pues para para llevar el podcast el canal de youtube hacia donde vosotros queráis pues nada muchísimas gracias

1:06:29

[Germán] Pues nada, un mes más.

1:06:42

[Germán] A ver si en este mes que nos queda para publicar otro, conseguimos que no se nos vaya de las manos.

1:06:49

[Galileo] ¡Ciao!

1:06:49

[Galileo] ¡Hasta la próxima!

1:06:50

[Germán] Chao.