El Secreto Mejor Guardado de los Supermercados
S01:E02

El Secreto Mejor Guardado de los Supermercados

Episode description

¡Descubre el universo de la innovación y la tecnología en nuestro último episodio de “Se Nos Va De Las Manos”! En este fascinante viaje, José Manuel, alias @G4lile0, y Germán Martín alias @gmag12, te sumergimos en el vibrante mundo de los avances más recientes. Desde la exploración de la revolucionaria IA Gemini 1.5 de Google, que promete superar las capacidades de GPT-4, hasta la magia detrás de la generación de video a partir de texto que podría revolucionar la producción audiovisual. También nos adentraremos en el espacio con TinyGS y el emocionante mundo de los satélites, además de descubrir los secretos tecnológicos que esconden los carritos de la compra. ¡No te pierdas este episodio cargado de conocimiento, curiosidades y un vistazo al futuro de la tecnología que está transformando nuestro mundo! Escúchanos en iVoox, Spotify, YouTube, y más. ¿Listo para que se te vaya la cabeza? Dale play y acompáñanos en esta aventura tecnológica.

Download transcript (.srt)
0:11

Sí, me la acaban de encender. Ok.

0:13

Y te lo acabo de encender y a mí también.

0:15

Sí, perfecto. Pues nada, estamos grabando.

0:20

Bueno, Germán.

0:21

Bueno, pues ¿qué tal?

0:24

¿Cómo estás?

0:26

Bien, bien.

0:27

Estamos aquí a través del capítulo 2D se nos va de las manos.

0:32

Sí, sí, sí.

0:33

Y hoy se nos ha ido de las manos total el VDO Ninja este que estamos probando.

0:38

A ver qué sale, a ver qué sale.

0:40

Estamos intentando que salga algo que parezca un poco más profesional en YouTube porque la última vez grabamos

0:47

directamente de Jitsi y bueno, no está mal, pero vamos mejorando poco a poco y vamos aprendiendo que es de lo que se trata.

0:57

Pero se nos ha ido de las manos.

0:58

¿Ibamos a grabar hace una hora?

1:01

¿Hace una hora? Hace una hora, llevamos una hora y media casi.

1:06

Sí. Pero bueno, no nos vamos a entretener más.

1:09

Bueno. Bueno, ¿qué tal la semana?

1:12

Bueno, presentarnos rápidamente.

1:13

O sea, este es el podcast, se nos va de las manos.

1:16

Yo soy José Manuel, aunque todo el mundo por el ambiente maker me conoce como Galileo, G4Lile0, Germán, como a gente.

1:25

Yo soy Germán Martín y me podéis encontrar en Twitter como arrobagemash12.

1:34

Y luego, pues recordar que nos podéis escuchar en iVoox, en todas las plataformas de podcast, también en senosva.com.

1:44

Es nuestra web donde está a la raíz de todos los audios y de donde todos los podcatcher se surten del audio.

1:55

Y bueno, estamos también en YouTube.

1:58

O sea que si alguno preferís vernos las caras,

2:02

Ahí estamos, en YouTube, en el canal de Se nos va de las manos.

2:08

Muy bien, pues queríamos agradecer también a los que nos habéis puesto los comentarios, por ahora por iVoox, aunque ya decimos que quizás ahora que vamos a estar en YouTube sea más fácil el poner por allí, y queremos agradecer a Gustavo Reinaga y a Ruben Gard, pues el feedback que nos han dado.

2:29

Teníamos también, hay una comunidad muy muy buena

2:34

de Luis Llama, ¿no?

2:36

Luis llama, sí.

2:37

Y te llegó también un comentario muy interesante por allí.

2:40

Sí, sí, sí.

2:42

Ahí tienen una sección de presenta tus proyectos.

2:44

Y dije, pues esto es mi proyecto, ¿por qué no lo presento?

2:47

Y sí, nos estuvieron dando indicaciones sobre el audio y sobre diferentes aspectos de los cuales hemos tomado nota.

2:56

Y intentaremos corregirlo y mejorar.

3:02

Muy bien, muy bien.

3:05

¿De qué vamos a comentar hoy? Bueno, hoy es 19 de febrero y el día 14 saltó la bomba en el mundo de la IA.

3:07

O sea, lo que está todo el mundo hablando es de lo que está todo el mundo hablando.

3:23

y es que Google presentó su modelo Gemini 1.5, que dicho así no suena mucho, pero es que hace dos semanas, hace semana y media, presentó su modelo Gemini 1.0 Ultra

3:39

Sí, eso fue algo así como diciendo, te presento al uno y en una semana y media, el uno y media, dices, ¿pero cómo?

3:45

Exacto.

3:48

El 1.0 Ultra ya se supone que es equivalente en capacidades a GPT-4.

3:56

Tienen también su modelo 1.0 Pro, que sería el equivalente a GPT-3.5.

4:05

Y nada, y han lanzado Gemini 1.5.

4:09

¿Qué diferencia tiene con los modelos anteriores?

4:13

Bueno, pues si el 1.0 ya era equivalente a GPT-4, pues aquí dicen que es superior a este.

4:21

Y bueno, la principal diferencia es el número de tokens.

4:27

¿Cuántos tokens de contexto crees que tiene este modelo?

4:32

No sé, ya me pierdo, me pierdo.

4:34

O sea, no voy a decir una burrada. Mira, para hacernos una idea, o sea, cuando hablamos de los token de contexto es, ¿qué memoria tiene de todo lo que hemos ido hablando?

4:42

O sea, cuando tienes un chat, pues, todo el historial de chat, pues, pasa como contexto o incluso incluida las instrucciones que tú le has dado, la respuesta que te ha ido dando.

4:52

O como la cantidad de palabras, ¿no?

4:53

Sería como la cantidad de palabras que maneja y su relación. Sí, la cantidad de palabras que recuerda.

4:57

Sí, normalmente es un, hay que multiplicar por 0,8.

4:59

Es decir, si tienes 1,000 token de contexto, eso equivale a unas 800 palabras.

5:05

Pues, ChatGPT ahora mismo, la versión que está en la web de pago, tiene 32.000 tokens de contexto.

5:15

La versión que está en el API de GPT4 tiene 128.000 tokens.

5:22

El siguiente que había batido el récord era Cloud.

5:27

que tiene 200.000 tokens de contexto, aunque se habla de que no está al mismo nivel que GPT porque no es capaz de manejar bien toda esa cantidad de histórico que puede manejar.

5:42

O sea, que no lo gestiona bien, pero bueno.

5:45

Y, bueno, pues aquí estamos hablando de que Google, iba a decir, se la ha sacado.

5:53

Y dice, aquí estoy yo y tengo un millón de token de contexto.

5:59

Millón de token. ¿Qué significa eso?

6:00

Un millón.

6:00

O sea, es que es para volar la cabeza.

6:03

O sea, un millón significa que vas a tener unas 700.000 palabras.

6:08

He estado buscando, por ejemplo, el Quijote entero tiene 381.000 palabras.

6:13

Es decir, que habría casi dos veces

6:18

en el contexto del modelo de Gemini.

6:22

¡Qué locura!

6:24

Lo que dicen es que utilizando ese contexto tan grande le puedes dar todas las instrucciones para una nueva habilidad

6:35

sin necesidad de modificar el modelo.

6:39

Le puedes explicar, le das un libro entero de ingeniería aeronáutica y a partir de ahí ya le puedes hacer preguntas de ingeniería aeronáutica aunque el modelo no lo tenga codificado.

6:50

Que pasada. Es brutal, es brutal.

6:52

Estamos esperando a tener acceso a ello porque ahora mismo tienen abierta la API a los modelos pequeños, por decirlo de alguna manera,

7:03

que son el 1.0 PRO y el 1.0 ULTRA y tienen abierta también para el 1.5 pero limitado a 128.000 tokens que tampoco está nada mal y están, y para algunas empresas están haciendo pruebas con ello para empezar a desarrollar aplicaciones con ese millón de tokens que puede ser brutal

7:29

Pero la cantidad de memoria, porque al final tú tienes un modelo, cuanto más token tienes, más ocupará en memoria, que es uno de los problemas que hay

7:36

Bueno, claro, claro, aquí ya.

7:37

para poder ejecutar este tipo de modelos. Sí.

7:40

No sé cómo... Estaban hablando que en algunos sitios lo que hacían era segmentar los modelos.

7:46

Entonces hacían... Imagínate, hacían una parte como de un modelo con ingeniería y entonces había otro modelo intermedio que lo que hacía era

7:55

pasar ese trabajo al modelo de ingeniería que era el que tenía esos toques.

7:58

No sé si lo harán así, para ir escalando de un modelo a otro, pasando contexto, porque si no, no hay memoria suficiente para poder tener todo a la vez.

8:07

O sea, el maquinón que tienes que tener es una locura.

8:10

Aquí lo que dicen que para, bueno, igual que GPT, que tampoco está claro que sea así, pero se sospecha que sí, no lo han dicho públicamente, utilizan una arquitectura que se llama mezcla de expertos, que es varios modelos que cada uno sabe de un tema y luego otro modelo que está gestionando las consultas a cuál de ellos van.

8:33

Ah, vale. Y Google sí ha dicho que es lo que tiene, que es el, se llama el mix,

8:37

Es que si no, no me cabe en la cabeza cómo podrían tener tanta... Entonces, al final lo que... Es que, a ver, GPT hubo un momento en el que era abierto.

8:46

Y al ser abierto, sabíamos todo.

8:49

Y bueno, Yama, que es el que ha producido Meta, también es abierto.

8:54

Entonces, cuando tienes los modelos abiertos, sabes cómo funcionan y la comunidad puede desarrollar herramientas

9:01

para crear sus propios modelos.

9:03

Pero cuando vio el dinero, OpenAI dijo, ala, ya a full y no contó nada.

9:09

Y está contando muy poquitas cosas.

9:13

Y bueno, que al final lo que hizo fue el reventar.

9:18

Dice que vosotros cogéis y anunciáis esto ahora.

9:20

Pues yo lo que hago es reventar con un... ¿Quién habla de Gemini?

9:24

No habla nadie porque sacó algo

9:27

que para los expertos, para los expertos, es ciencia ficción. Sí, sí, sí, sí.

9:32

O sea, todo el mundo... ¿Ves comentarios de hace un mes?

9:35

Diciendo, bueno, eso lo veremos, lo verán nuestros nietos.

9:38

No, hombre, tanto como eso, no.

9:40

Pero sí que decían, lo veremos, pero no ahora. Sí, sí. No, no.

9:44

Y, de repente, está ahí y es increíble. Sí.

9:47

Efectivamente.

9:50

Efectivamente, lo que ha presentado Google es competencia directa a chat GPT y puede desbancarle en el primer puesto como herramienta más potente de modelo de lenguaje.

9:56

Sí.

10:05

Entonces, Opera ahí que estaría trabajando ya en

10:10

en esta otra cosa que presentó, que no es más que generación de vídeo, pero impresionante.

10:17

O sea, teníamos ya modelos, hay servicios como Runway y Pika, que ya eran capaces de generar

10:25

Anda.

10:27

lo que nos parecía que era una verdadera pasada generar vídeos a partir de texto, es decir, darle una descripción.

10:34

Aquí el ejemplo de un vídeo de los más vestidos de astronauta y una vaca orbitando la Tierra.

10:41

Y era un vídeo cortito de unos pocos segundos, pero es que esto te genera secuencias que parecen profesionales, pero son secuencias que

10:53

Supongo, a ver, ha salido en las noticias, lo tiene que haber visto todo el mundo, pero lo que hizo fue, cogía Google y decía, he desbancado a ChatGPT, y ChatGPT tenía algo escondido, lo soltó, y ahora todo el mundo habla de ello.

11:08

Entonces, habrá que ver qué cosas tienen escondidas.

11:11

Porque eso lo sacaron porque le quisieron hacer poop a la competencia. Sí.

11:14

Dice, ¿qué?

11:14

¿Me vas a hacer poop a mí?

11:15

Zasca.

11:16

Porque es que el modelo que se utiliza ahora mismo, que tenía OpenAI, era DALI.

11:22

pero Dali no te generaba fotos realistas.

11:31

No, no te hace fotos realistas. No.

11:33

En cambio, Stable Diffusion sí. No, no, para, para, para.

11:35

En Stable Diffusion existen varias loras, existen varias cosas, de eso si queréis un día hablamos de ello si os interesa esa parte, y te genera fotos bastante realistas.

11:44

Pero es que ellos lo tenían, esta Midjourney sacó unas fotos bastante buenas y cuando hayan visto los vídeos, no las fotos, es que cada fotograma de esos vídeos le da cien vueltas a Midjourney, que era una empresa que se dedica a generar fotos con inteligencia artificial súper buenas, pero es que Midjourney

12:06

O sea, ha sido superado en vídeo, en crear vídeo.

12:10

En crear un vídeo.

12:11

Tú le das un texto y te hace el vídeo.

12:12

Pero es que hay cosas alucinantes. Sí, sí.

12:14

Tú le das un vídeo y dices, este vídeo que sale un coche en verano, quiero que lo pases a invierno.

12:19

Y te lo convierte a invierno.

12:22

O dos vídeos que te haga la transición y te hace una transición. Y te lo pasa.

12:25

Es increíble. Sí.

12:25

O sea, es increíble.

12:29

El modelo no está abierto aún, es decir, no está disponible para utilizarlo, pero lo que han hecho ha sido abrir un hilo en Twitter en el cual cada uno, quien quiera, puede proponer, oye, hazme un vídeo

12:39

le pedía.

12:45

de lo que decía 2SV, un pangolín haciendo surf.

12:50

Y es que, o sea, lo hace.

12:54

O sea, está demostrando que efectivamente no es que se hayan... No están vendiendo humo o no están, digamos, exagerando las capacidades porque es que cualquier cosa que les piden

13:07

es que lo superan, cada vídeo que están sacando lo superan y luego lo tienen en la web

13:09

Sí.

13:13

Sí, en la propia web salen varios ejemplos, pero luego después los vídeos que les pidieron son increíbles.

13:19

O sea, tú veías una influencer de cocina de 60 años o algo así, y tú ves el vídeo y dices, a ver, cuando mueve, está moviendo como imaginar una masa, el movimiento de la masa, ahí se nota.

13:36

pero se nota mínimamente.

13:39

Es que hay que recordar, no sé si habréis visto el vídeo este de Will Smith comiendo espaguetis de hace un año, que se ve una cosa así como deforme que se parece a Will Smith comiendo espaguetis. Sí.

13:53

Y es que eso es de hace un año.

13:54

Es de hace un año.

13:58

Sí, sí, se hablaba de que este año sería el año del vídeo en inteligencia artificial, pero es que la calidad, el salto de calidad que han pegado es brutal, brutal y seguramente las empresas productoras de vídeo están préstandole mucha atención porque aquí hay mucho, o sea, es que se puede hacer una película perfectamente, no tardaremos en ver películas creadas con

14:23

Sí, bueno, viste el ejemplo de los astronautas que salen con una cosa guardada encima de la cabeza super rara.

14:30

Sí.

14:31

Sí.

14:32

Y está, vamos. Es superraro.

14:35

Y lo es que crea detalles.

14:38

Hay un vídeo que es de una chica que está paseando por una calle de Japón y de repente la cámara se centra en el ojo y se ve en el ojo el reflejo de la escena y ves que es coherente el reflejo

14:41

Sí.

14:51

Con el de la otra gafa.

14:52

O sea, igual que yo ahora miro y se me ve... Las dos.

14:55

Sí, exactamente.

14:56

Los dos cristales. Luego también se ven las gafas, es que es brutal.

14:58

Luego hay una escena de un tren que va pasando por una estación y sí, se ve el reflejo de lo que hay dentro del tren y que el modelo sea capaz de entender eso, de entender que dentro del tren van personas y aparece

15:02

Eso no lo ha visto.

15:03

Ah, sí, sí que lo ha visto.

15:05

Y cuando pasa en una zona oscura, se ve el reflejo de la persona que está detrás.

15:17

Pero no solo eso, sino que luego después, si vuelve a aparecer, porque hay varios, vuelve a aparecer la persona y aparece igual, quizás se ha movido un poco, pero decían que si lo que conseguía este modelo era hacer como primero un modelado de las personas, como si nos fuéramos a 3D Studio,

15:25

Aparece igual.

15:38

hiciéramos el modelado dentro de 3D.

15:41

¿Cómo se llama?

15:42

El que es open source.

15:44

Se me acaba de ir el nombre.

15:45

Pero bueno, cualquier programa de edición de vídeo, de vídeo no, de 3D, y entonces te generará con las físicas los personajes que van dentro y luego los articulará.

15:54

Porque es que dicen que si no no hay forma de... O sea, es magia.

15:58

Ahora mismo eso es magia.

16:00

Y da miedo el

16:03

todo lo que tienen escondido, porque al final han sacado esto, pero seguro que están haciendo otras cosas y que no las van a sacar hasta que no lo sean necesario.

16:11

Y que luego, ojo, OpenAI se está cargando en muchas empresas de inteligencia artificial, muchas startups que hacían cosas que ahora directamente sus modelos las hacen.

16:20

Si ahora... Esa tú.

16:21

O sea, tú querías... Había gente que decía, quiero hacer un modelo que haga esto, pero es que ahora OpenAI

16:27

con sus modelos y con su API, le pasas unas fotos y directamente te hace lo que esas empresas decían que iban a hacer y te lo hace ya.

16:34

Entonces... da miedo, da miedo.

16:38

Pero bueno, que no va a ser un monográfico de... ¿Hemos dicho cómo se llama el modelo?

16:45

Sora. Bueno, Sora, Sora, se llama Sora, está en la página de OpenAI, lo tenéis, hay una descripción de...

16:53

bueno, de las capacidades que tiene el modelo.

16:55

Hay muchísimos ejemplos de vídeo también, no solo los buenos, sino que han puesto también los fails, los vídeos que han salido mal.

17:02

Estilo Jackie Chan.

17:06

Pues hay uno de unos, o sea, que se ven dos perros en un camino y empiezan a salir de los perros, salen perros y al final se juntan como 8 o 10.

17:14

Yo vi uno que salían ositos panda y eran ositos panda con dos patitas solo.

17:20

No sé si lo viste.

17:23

No, no lo vi.

17:24

No lo vi, pero eso.

17:25

Y en Twitter, en el... No sé quién de ellos lo estaba publicando, el CEO.

17:34

¿Salman? ¿Cómo se llama? Me he quedado blanco.

17:35

¿No sé qué es Salman? El CEO de... Sí.

17:39

No sé, no será Mark Salman. Bueno, si buscáis en... No lo recuerdo ahora, me lo tenía ahora apuntado aquí.

17:49

Tiene un hilo de vídeos generados con este modelo, con Sora.

17:55

que son para que se te haga la mandíbula al suelo.

18:01

Están publicando también los fallos para ver que este modelo todavía tiene capacidad de mejora.

18:11

Es brutal, es brutal.

18:13

Dicen que lo han desarrollado porque están buscando un camino hacia la inteligencia artificial en general y para ello tienen que hacer un modelo que entienda cómo funciona el mundo.

18:24

El mundo, sí.

18:27

Qué locura. Yo entiendo, por lo que han dicho, cómo funciona físicamente, cómo se comportan y es lo que han hecho con esto.

18:29

Sí, sí, sí, sí.

18:34

¿Te imaginas que dicen ahora, necesita explorar el mundo y conectan los robots estos que dan miedo, de estos que salen andando, los cuadrúpedos, estos?

18:42

No me acuerdo, la empresa está... Pero esos que dan miedo.

18:45

Y dicen, no, para que vea el mundo, los dos, los de Boston Dynamics. Sí, sí.

18:48

Dicen, vamos a conectar un robot de estos. Sí, los de Boston Diamond.

18:50

Madre mía, es como Terminator.

18:52

Para que explore.

18:54

Pues sí, sí, es brutal.

18:56

Nos mantendremos ahí atentos.

18:57

Sí, sí, es una pasada.

18:58

Esperaremos que no se nos vaya de las manos porque ha estado a punto, a punto.

19:05

Estuve toda la tarde viendo vídeos de esto y nada.

19:11

Y bueno, tenemos otro temita ahí preparado.

19:13

Al final necesitamos mucho vuestro feedback para decir por dónde queréis que vayamos.

19:21

Con respecto a TinyGS, por si escucháis el podcast para saber las actualizaciones, en las últimas semanas ha habido dos satélites que se han deorbitado. Uh-huh. Sí.

19:33

Es lo normal, van cayendo poco a poco porque no tienen

19:36

motores, aunque hay algunos que los están hazando con motores de plasma, pero estos no llevan motores, entonces van cayendo poquito a poquito.

19:42

Y se nos han caído FOSASAT-2E, el 13, y se ha caído también FES, que son satélites que llevan... el FES llevaba desde el principio.

19:54

Y una cosa que hemos hecho es...

19:58

¿Desde cuándo?

19:59

¿Cuánto tiempo llevaba?

20:00

cuando nos metemos en la página web se ve porque ahora en la página web se ve en los satélites activos se ve el último paquete que hemos recibido y cuando ya está el satélite como no activo se ve desde qué momento se empezó a recibir bueno se lanzó el último momento en el que hemos recibido paquetes y el número de paquetes que hemos recibido y por el número de estaciones un paquete si lo ha recibido 500 estaciones porque sale un paquete de telemetría y 500 estaciones que lo ha recibido

20:01

¿Dos años?

20:28

Pero eso es el acumulado desde que estamos escuchando los satélites.

20:30

Sí.

20:32

Y una cosa que hicimos fue el desactivar los Gaofen, que son un poquito spammer, mandan mensajes cada 15 segundos y están en una órbita que tapa como Europa.

20:43

Y entonces lo que intentábamos era, para poder predecir cómo impacta cuando

20:51

Estos satélites van a 28.000 kilómetros por hora.

20:54

Entonces cuando llegan a tocar unas zonas ya de la atmósfera, cuando están entre unos 160 kilómetros, pues arden.

21:00

Y entonces era ver el impacto que había con respecto a la trayectoria prevista.

21:04

Entonces lo que hicimos fue desactivar los satélites estos de Spammer para intentar escuchar más paquetes cuando estaba justo en la reentrada del satélite antes de que se quemara.

21:13

Y por ahora lo máximo que hemos conseguido ha sido con FES, que es el récord, es a 187 kilómetros.

21:19

Hemos sido capaces de recibirle a 187 kilómetros.

21:24

La pena es que con FES no teníamos termómetro, o sea, no sabíamos la temperatura.

21:27

Con FOSA sí, pero no llegamos a ver esa variación.

21:31

Pero la idea es, en un futuro,

21:33

Pues eso, todos los satélites que se vayan desorbitando, el intentar ver eso, ver cómo le afecta la temperatura y en qué momento el TLE, que es la fórmula matemática que define por dónde va a estar, deja de funcionar.

21:43

¡Je!

21:48

Tengo que echarle un ojo porque los satélites, por ejemplo, los chinos, hicimos ingeniería inversa para decodificar la telemetría y solo tenemos ahora mismo la información de dónde están.

22:02

Te da la información como una nave en dos tiempos distintos.

22:08

para saber las centricidades que tienen de la órbita y todo eso, todo eso lo tenemos.

22:12

Pero tengo que echarle un ojo a ver si alguno de los datos que no decodificamos pudiera ser la temperatura, porque eso sería súper interesante, porque al ser más grandes...

22:20

supongo que vivirán más o lo mismo no porque al ser más grandes llegan a 28.000 kilómetros por hora pues hay más rozamiento y caen antes pero bueno es un dato interesante y otro tema pero este casi lo dejamos para el final para que pensemos a ver cómo lo hacen el otro día mi hija me dijo papá ¿tú sabes cómo funciona el bloqueo de las ruedas de los carritos? Ajá. Estaría guay.

22:41

y dije yo que bien de los carritos de la compra ¿no?

22:44

esos que se los van a llevar alguien de la compra y se bloquea Oye.

22:47

Sí, sí.

22:49

Y yo dije, pues se me ocurrían formas de cómo podía funcionar.

22:53

Pero luego he hecho una investigación y ahora os contaré cómo funciona porque es superinteresante.

23:00

Yo diría que es mecánico, ¿no?

23:02

Creo que hay algunos que son... Yo lo que pensé es magnético. Porque los... Claro, yo...

23:06

Y luego después había uno con algo magnético, pero no encontré la explicación de cómo funciona.

23:10

Entonces, encontré una explicación de unos hackers que han averiguado cómo funciona, lo han desmontado,

23:17

y es un sistema super ingenioso, aunque también es hackeable.

23:22

Luego os daremos los datos para... Le podéis gastar una hora con algún amigo de bloquear la rueda del carrito.

23:28

No creo que es la delantera derecha.

23:31

Le podéis bloquear esa rueda, pero luego tenéis que llevar la herramienta... Con dos... ¿Se puede con un móvil?

23:36

Se puede hacer el bloquear y desbloquear la rueda.

23:40

¿Con un móvil?

23:42

Cuéntame porque eso ayer no lo he visto.

23:45

Pues sí, pero vamos a llegar a qué es lo que tenemos dentro de la rueda.

23:48

Tenemos al final, es una rueda de plástico donde alberga un circuito y una batería.

23:56

Entonces, esa rueda de plástico lleva dentro un mecanismo, que es una rueda como excéntrica, con un motor como de juguete, que lleva un actuador lineal, y lo que hace es hacer esa rueda más grande.

24:09

Y entonces, al hacer la rueda interior más grande, frena la rueda que se está moviendo, que es la que, digamos, que va por fuera.

24:14

Es como un freno de tambor, ¿no?, al final.

24:15

Entonces, ese es el mecanismo que tienen.

24:18

¿Pero cómo funciona todo esto?

24:21

Sí, es como un freno de tambor.

24:22

Sí, el de tambor funciona así, que se hace grande el interior.

24:24

Sí, sí, sí, se expande y bloquea las ruedas de dentro.

24:27

Exacto.

24:28

Eso es lo que haría.

24:29

Se lleva un actuador que lo que hace es imaginar aquí como una V, entonces al empujar la V hacia arriba, éste se hace más grande, tiene un montón de dientes que hacen bloquear la rueda exterior.

24:40

Ajá, vale.

24:44

Lleva una batería, una batería de 3 voltios.

24:46

¿Pero qué es lo que hacen para que no se gaste esa batería?

24:51

Primero, llevan un microcontrolador que está siempre dormido.

24:53

O sea, en algunos experimentos el consumo es mínimo.

24:58

Y llevan un sensor Hall.

25:00

Entonces, un sensor Hall es un sensor magnético.

25:03

Por ejemplo, los SP32, las primeras versiones llevaban un sensor Hall dentro, metido dentro del die de silicio.

25:06

Ajá.

25:09

Pero este es uno externo.

25:10

Entonces, al final, cuando la rueda gira,

25:13

activa este mecanismo para que se despierte y haga unas ciertas comprobaciones.

25:18

Porque si no, ¿qué es lo que pasaría?

25:19

Que estaría todo el rato funcionando el sistema y al final gastaría la pila.

25:25

Y aquí lo que tenemos es una pila de tres voltios.

25:28

La verdad es que no me he puesto a mirar cuánto durará, pero calculo que durará mínimo cinco años.

25:32

Sí, en el artículo que me pasaste hablaban de que duraría de 5 a 10 años, que es el tiempo que se espera que dure un carro de ese tipo.

25:44

Sí, son unas baterías especiales que llevan una descarga, porque las baterías de por sí se van descargando poco a poco, pero estas son unas especiales, que son más caras, que están hechas para temas IoT, con sensores de parking o este tipo de productos para bloquear la rueda, que lo que hacen es, pues eso, que tienen una descarga de cada año que es muy baja.

26:05

¿Y cómo hacen para detectar que el carrito se va de la zona que ellas tienen, digamos, vallada?

26:13

Pues atentos, lo que hacen es, tiran un hilo.

26:16

Hay un hilo por toda la zona por donde quieren que no salga.

26:21

Porque lo que lleva es un receptor, atento, un receptor a 7 kHz.

26:28

7 kHz.

26:29

Ya.

26:32

Imaginar, cuanto menos es la frecuencia, mayor es la longitud de onda,

26:40

y entonces al final estamos hablando de que la antena tendría que ser de varios cientos de metros para poder aguantar 7 kHz, que es que eso no es radiofrecuencia, es audio.

26:52

De hecho, por eso es lo que te decía, que se puede utilizar un móvil para poder desbloquearlo y bloquearlo, a muy baja distancia, porque se dispara, porque al final

27:00

Sí, con el mismo imán del altavoz se induce la corriente en él.

27:07

Aquí al final lo que buscan es, tú tienes a 7 kHz, induces una corriente en un hilo conductor, eso lo detecta la bobina que tiene esta rueda, entonces cuando detecta esa señal automáticamente se bloquea.

27:25

Pero hay algo más.

27:29

Lleva otro receptor, y es un receptor de 2 GHz.

27:33

Ese receptor sirve para desbloquear la rueda.

27:36

El desbloqueo de la rueda se puede hacer por el receptor de 7 kHz, que es una bobina, o luego tiene una antenita de 2 GHz, y esa antenita de 2 GHz es la que te permite desde distancia, porque claro, una frecuencia de 2 GHz, fijaros lo que os llega a 2.4, fijaros lo que llega a vuestros routers de casa, cubren...

27:43

el wifi, el bluetooth

27:57

lleva bastante distancia.

27:59

Pero ahí está, digamos, la clave.

28:01

Cuando tú tienes una frecuencia tan baja... Bueno, un hecho.

28:06

Sólo se bloquea, y gracias a Dios, sólo se bloquea con 7 kHz.

28:11

¿Por qué?

28:12

Porque tú no puedes hacer un... el generar esa señal, aunque lo hagas con un equipo de audio, imagínate, de 40 vatios,

28:21

al final el intentar transmitir esa frecuencia llega a muy pocos metros entonces no podrías hacer un inventito que cogieras y bloquearas todos los carritos del supermercado por eso el bloqueo sólo funciona en 7 kilohercios lo han hecho adrede porque desbloquear si, tiene una bobinita, luego si, pondremos eso en un esquema porque se ve y

28:37

A ver, tendrá alguna bobina, ¿no?, para hacer... Porque va... Irá más... Más que por radiación, irá por inducción.

28:48

Sí, se induce ahí, y es en los 7 kHz, y ahí tienes el... son pulsos.

28:52

O sea, al final, ¿qué es lo que hizo un hacker?

28:57

Joseph, luego pondremos el enlace, pues cogió, hizo con una bobinita de cerrita, de las antiguas estas que utilizábamos para hacer radios AM, entonces la puso con una resistencia de unos pocos kiloohmios para que entendiera el móvil que era un micrófono en vez de unos cascos,

29:14

y lo acercó a este sitio, a donde está el hilo que está mandando esta señal para que el carrito se bloquee, y lo recibió con un programa de grabar audio, grabó esa señal de 7 kHz.

29:27

Y con el programa Audacity es el que sirve para ver

29:32

Sí, sí, sí, con Audacity, un editor de audio normal y corriente.

29:35

Un editor de audio cogió y vio cómo eran las tramas, que al final era un tipo de Burst, que era uno como de Preamble, que es el que te dice, aquí empieza mi transmisión, y luego después, los unos o los ceros se diferenciaban por la cantidad de tiempo que te mantenías... Era modulación a M. O encendido... Bueno, eso es... No es a M, es modulación encendido-apagado, en radio,

30:01

Oka es on off gate.

30:04

O OK.

30:05

Exacto.

30:07

Pues es ese tipo de modulación.

30:10

En cambio, en 2.4, utilizando un hack SDR, vio que en 2.4 hacía una modulación estilo FSK.

30:20

Entonces transmitía en una frecuencia y en otra para coger y mandar o unos o ceros.

30:26

y también decodificó el mensaje para desbloquearlo, ya os digo.

30:30

¿Qué pasa?

30:30

Que si hubieran hecho el fabricante que se bloquearan con este tipo de señal, imagínate, alguien con un SDR te bloquea todos los carritos de un supermercado.

30:39

Entonces, por eso... por eso lo hicieron.

30:42

Sí, pues había un vídeo... ¿Sí?

30:43

...de un conocido, de una tienda que se limitaba la señal con un ciclaje o algo, Había un vídeo con un flipper que conseguían también imitar la señal con un flipper cero, que es este cacharrito parecido a un stick USB.

31:01

que tiene interfaces de radio.

31:02

Es un equipo para hacer hacking, para investigar.

31:05

Podemos hablar de él un día.

31:07

Sabes que lo han prohibido en Canadá, ¿no? Un día hablamos.

31:09

Lo han prohibido en Canadá. Sí, lo han prohibido en muchos sitios, pero no sé.

31:13

Y han sacado... Le han bajado de precio porque antes estaba más caro. Ajá.

31:16

Tenemos varios amigos que lo tienen y es súper divertido.

31:20

Sí, sí, sí.

31:21

No sé.

31:21

O sea, tienes interface.

31:22

Bueno, ya hablaremos de él un día.

31:24

Y han sacado una versión ahí más barata. O sea, puede estar bien.

31:27

Y alguna vez le ha dado porque...

31:31

Cuando saqué el Wi-Fi Hack Monster, que para capturar era un poco como una especie de sacar con una cosita mucho más barata que utilizar una Raspberry Pi, que era el Pagonchi este o algo así, que era capturador también.

31:33

Mhm.

31:33

Mhm.

31:46

Entonces, alguna vez he dicho... Pero no me da la vida, se me va de las manos. Sí, lo va a llenar, va.

31:51

Digo, el sacar una versión con un SP32 porque al final

31:55

es una radio y se puede portar mucho a hacerte un módulo que pudiera replicar parte de las herramientas.

32:01

Lo que pasa es que lo bueno de... de esta utilidad... ¿Cómo se llama?

32:07

Que se me ha ido el nombre ahora mismo.

32:08

Del... Del flipper.

32:09

El flipper.

32:11

Es que tú coges y tienes una aplicación desde el móvil que te permite subir las cosas.

32:17

O sea, tiene un interface superbueno.

32:19

Entonces, el intentar sacar eso es superdifícil.

32:22

Pero vamos, han bajado el precio porque supongo que como lo están prohibiendo en varios sitios y les está saliendo competencia, pues el hardware no debe costar tanto como para que lo vendan a 300 dólares.

32:29

No, el hardware tiene que ser barato.

32:30

Ahí la gracia del flipper cero está en el software y además que se lo han currado muchísimo.

32:38

Y de nuevo, no vamos a hablar ahora de ello porque ya dedicaremos un capítulo entero a hablar de Flipper 0, de las cosas que se puede hacer y del tipo de señales que puede analizar y generar.

32:54

Cuando hablábamos de los carritos, al final, un carrito cuesta entre 100 y 300 euros.

33:05

Y pillaron a un hombre que aquí en la zona de Madrid, en Ikea, estaba robando carritos, que había robado muchísimos carritos, y le pillaron porque dentro del carrito pusieron un GPS. Sí.

33:21

Yo creo que eso es un buen tema. Ostras.

33:23

Existen muchos sistemas ahora mismo de localización.

33:26

Te pueden localizar por Wi-Fi, por métodos activos, pasivos.

33:30

Yo creo que eso da para un programa.

33:32

Había un proyecto hace tiempo, que creo que lo denotimaron, utilizando ese PPT2, para usarlo como una línea pasiva recibiéndolo.

33:33

Hay mucho.

33:34

Había un proyecto hace tiempo, pero creo que lo descontinuaron, utilizando SP32, usados como baliza pasiva, recibiendo, y podían trazar también la posición con mucha precisión en interiores.

33:36

Y podían trabajar también con sus clientes.

33:50

Pero creo que el proyecto no fue a más, pero era muy grueso.

33:53

La trilateración es muy complicada.

33:55

Hay uno de los proyectos de localización, de hecho, el tuit que he tenido con más repercusión fue justo del Heimdallr, Wi-Fi radar, que es un sistema basado en localización utilizando Wi-Fi, y que asusta un poco lo que puedo hacer. Sí, sí, sí, sí.

34:09

Lo...

34:12

Pero yo creo que eso lo podemos hablar en el próximo programa, a menos que nos digáis que queréis escuchar otro tipo de cosas.

34:20

nos lo preparamos para el próximo.

34:21

Ya busco información porque sí que estuve un tiempo bastante interesado en ese tipo de soluciones, porque tienen aplicaciones en lo típico en industria, pero también para domótica tiene también usos y, por ejemplo, para saber dónde está, en qué habitación de la casa está algo.

34:42

Y es algo que no es nada sencillo y cosas de este tipo pueden ayudar.

34:48

Entonces, pues ya tenemos tema para el próximo.

34:51

Pues sí.

34:52

Bueno, yo creo que ya no nos enrollamos más que queríamos hacer los cortitos.

34:57

Bueno, sí, sí, sí, nos seguimos manteniendo aquí en media horita.

35:02

Bueno, nada, un saludo a todos.

35:05

Gracias por vuestros comentarios y por vuestras escuchas también.

35:11

Recordad, estamos en iVoox, estamos en Spotify, estamos en YouTube también.

35:17

Dejadnos los comentarios por donde.

35:21

o parezca.

35:22

Bueno, lo más cómodo es Xevox y YouTube.

35:26

En nuestra página también, en senosva.com, si tenéis cuenta de Feediverso, otro tema para otro día, también podéis dejarnos ahí comentario.

35:37

Y nada, pues nos vemos el mes que viene.

35:40

Nos vemos porque estamos en YouTube, recuerdo.

35:42

Nos vemos el próximo mes y, bueno, ya veremos a ver qué tema sacamos.

35:49

Hablaremos de esto.

35:51

que acabamos de comentar.

35:53

Muchas gracias a todos. Pues un saludo a todos.

35:54

Chao.

35:55

Hasta luego.