La Hora Maker
La Hora Maker
  • Видео 344
  • Просмотров 753 257
Descubre Llama 3.1 y más de 20 modelos de IA nuevos lanzados en los últimos meses - Especial Verano
En este especial de verano de La Hora Maker te voy a acercar los últimos modelos de LLM disponibles, incluyendo el reciente lanzamiento de Llama 3.1, uno de los modelos con licencias abiertas con mayor tamaño y mejor rendimiento.
Pero este lanzamiento no llega sólo, sino que forma parte de unos meses frenéticos antes de verano en el que se han lanzado modelos que mejoran el rendimiento de GPT-4, como Claude Sonnet 3.5 o que reducen los precios de forma notable, como Deepseek o GPT-4o mini. Modelos de texto y modelos multimodales, con características de visión.
Si te llama la atención algún modelo o quieres que hagamos pruebas de alguno en particular, puedes compartirlo en los comentarios.
Просмотров: 2 890

Видео

Analiza los datos de tus facturas - Excel e interfaz web - Video 3 de 3
Просмотров 1 тыс.Месяц назад
En este video te comparto una interfaz web creada con Streamlit que permite analizar los ficheros JSONL o CSV que hemos creado con videos anteriores. Esta interfaz te permite convertir de manera sencilla tus datos entre ambos formatos, por si quieres analizarlas también usando Excel, LibreOfifce u otra hoja de cálculo, utilizando el formato CSV. Para obtener esta interfaz web, tan sólo tienes q...
Extrae los datos de tus facturas a JSON usando IA - Video 2 de 2 - Código ya disponible!
Просмотров 3,3 тыс.Месяц назад
En este video, te explico cómo funciona facturas2json, un sistema de que permite la extracción de facturas utilizando modelos de Inteligencia Artificial. En un primer paso emplearemos Marker para interpretar el PDF de entrada y en un segundo paso emplearemos nuExtract para estructurar dichos datos. Todo ello empleando una interfaz web basada en Streamlit, que nos ofrecerá la flexibilidad para p...
Extrae los datos de tus facturas usando IA - Video 1 de 2
Просмотров 6 тыс.Месяц назад
En este video describo la arquitectura de una solución que nos permitirá extraer los datos de distintas facturas utilizando modelos de IA para obtener los datos a partir de PDFs y estructurar la información para su procesado posterior. Lo haremos utilizando modelos con licencias permisivas y 100% en local. Esta semana compartiremos un segundo video más centrado en el código y el desarrollo de l...
Limpia y prepara webs y PDF para tus LLM - Dos formas sencillas de convertirlos en Markdown
Просмотров 4 тыс.Месяц назад
En este video os mostraré cómo poder limpiar el contenido de una web o un pdf, convirtiendolo a formato markdown para que pueda ser ingestado de forma más sencilla en vuestros sistemas LLM, RAG, etc. Estaremos mostrando el servicio/API Reader de Jina.ai y Marker. Repositorios: - Reader Jina: github.com/jina-ai/reader - Marker: github.com/VikParuchuri/marker
Consulta tu servidor IA 100% local desde tu móvil iOS usando la app Enchanted LLM
Просмотров 1,7 тыс.3 месяца назад
En este video continuamos sacando partido a nuestro servidor LLM 100% local. Hoy conectaremos a nuestro servidor Ollama desde nuestro móvil iPhone (iPad o Mac) utilizando la app Enchanted LLM. Esta aplicación disponible en la Apple App Store permite conectar a Ollama con una experiencia nativa muy pulida. Esta aplicación puede localizarse en la app store con el nombre Enchanted LLM. En la últim...
Prueba ya Llama 3 - Tres formas de correrlo en tu equipo y tres formas gratis via web
Просмотров 6 тыс.3 месяца назад
En este video te explico tres formas en las que puedes ejecutar Llama 3 ¡ya mismo! Probaremos con nuestros programas favoritos Ollama y LM Studio pero también con LlamaFile, una variante portatil creada por Mozilla. También exploraremos tres servicios con los que puedes probar sin coste este modelo, incluso en su version de 70B de parámetros, sin tener una GPU local potente. Llama 3 es un model...
Buscador con IA local - Combinando resultados con modelos LLM usando LLocalSearch
Просмотров 4,5 тыс.4 месяца назад
En este video os presento LLocalsearch, una herramienta que combina distintas fuentes en internet a la velocidad del rayo, utilizando una LLM local para responder a las consultas que le enviemos. Es un metabuscador que utiliza Ollama para cargar las LLMs y organizar la información recogida de una forma espectacular. El repositorio del proyecto LlocalSearch: github.com/nilsherzig/LLocalSearch Ta...
Flujos de trabajo utilizando Agentes - Andrew Ng explica cómo funcionan y sus ventajas
Просмотров 3,7 тыс.4 месяца назад
Andrew Ng estuvo ofreciendo una presentación esta semana en la que explicó cómo funcionan los agentes. Entre los aspectos más importantes destaca porqué debemos esperar mejores rendimientos de estos sistemas que de modelos fundacionales masivos a corto/media plazo. En este video revisamos la presentación, añadiendo cierto contexto y comentario, pensando sobre todo en aquellas personas que no va...
Evaluando LLMs que evaluan LLMs para RAG - El ejemplo de Justicio
Просмотров 1,4 тыс.4 месяца назад
En este vídeo damos un paso más en nuestra labor de evaluación de los resultados de un RAG. Hoy en concreto nos vamos a centrar en responder la siguiente pregunta. ¿Cuál es el mejor modelo abierto que puede evaluar la calidad de pares, preguntas y respuestas de forma correcta? Para ello analizaremos distintos papers y distintas publicaciones en los que se han utilizado algunas métricas para med...
Evaluando un RAG usando datos sintéticos - Introducción usando Justicio
Просмотров 1,6 тыс.5 месяцев назад
En este vídeo vamos a dar los primeros pasos para ver qué métricas se pueden utilizar para evaluar un sistema RAG (Retrieval Augmented Generation) para obtener información a partir de tus propios documentos. Para ello nos vamos a centrar en el ejemplo de Justicio, un archivero digital que te permite consultar la legislación actual en España de distintas formas. Durante el vídeo vamos a ver cuál...
Servidor IA para tu Intranet 100% local usando Ollama y Open WebUI
Просмотров 29 тыс.5 месяцев назад
Servidor IA para tu Intranet 100% local usando Ollama y Open WebUI
¡Ollama ya funciona en Windows! Ejecuta modelos de texto y visión con su interfaz webui y más!
Просмотров 10 тыс.6 месяцев назад
¡Ollama ya funciona en Windows! Ejecuta modelos de texto y visión con su interfaz webui y más!
¿Peligra el futuro de eTopia Centro de arte y tecnología de Zaragoza?
Просмотров 5666 месяцев назад
¿Peligra el futuro de eTopia Centro de arte y tecnología de Zaragoza?
Transcribe tu voz a texto en más de 100 idiomas - 100% local usando Whisper Writer
Просмотров 2,9 тыс.6 месяцев назад
Transcribe tu voz a texto en más de 100 idiomas - 100% local usando Whisper Writer
Primeras pruebas con LLM en Orange PI 5 Plus - Tiny llama, Phi, Zephyr, Nous Hermes
Просмотров 2,6 тыс.6 месяцев назад
Primeras pruebas con LLM en Orange PI 5 Plus - Tiny llama, Phi, Zephyr, Nous Hermes
Orange Pi 5 Plus - Instalación Ubuntu 22.04 y primeros pasos
Просмотров 2,8 тыс.6 месяцев назад
Orange Pi 5 Plus - Instalación Ubuntu 22.04 y primeros pasos
Nueva serie: AI Lab - Explorando la convergencia de la IA y la Fabricación Digital
Просмотров 1,1 тыс.6 месяцев назад
Nueva serie: AI Lab - Explorando la convergencia de la IA y la Fabricación Digital
Crea un endpoint API de vision 100% local usando LM Studio
Просмотров 2,5 тыс.6 месяцев назад
Crea un endpoint API de vision 100% local usando LM Studio
Crea un endpoint API 100% local para tu LLM usando LM Studio
Просмотров 4,8 тыс.6 месяцев назад
Crea un endpoint API 100% local para tu LLM usando LM Studio
Apple libera el kit de aprendizaje automático MLX y otras muchas novedades ¡con código abierto!
Просмотров 9927 месяцев назад
Apple libera el kit de aprendizaje automático MLX y otras muchas novedades ¡con código abierto!
Entrevista a Neil Gershefeld: Convergencia entre la fabricación digital y la inteligencia artificial
Просмотров 7747 месяцев назад
Entrevista a Neil Gershefeld: Convergencia entre la fabricación digital y la inteligencia artificial
Flor, un modelo LLM trilingüe (catalán, español, inglés) acompañado de decenas de datasets NLP
Просмотров 1,2 тыс.7 месяцев назад
Flor, un modelo LLM trilingüe (catalán, español, inglés) acompañado de decenas de datasets NLP
¡Ya es posible crear vídeos con ÍA 100% si que apenas se note!
Просмотров 7457 месяцев назад
¡Ya es posible crear vídeos con ÍA 100% si que apenas se note!
Novedades LM Studio - Chatea con tus imágenes y modelos mucho más potentes (Llava y Mixtral)
Просмотров 8 тыс.8 месяцев назад
Novedades LM Studio - Chatea con tus imágenes y modelos mucho más potentes (Llava y Mixtral)
Mixtral LLM tiene soporte para español y muchas sorpresas más!
Просмотров 2 тыс.8 месяцев назад
Mixtral LLM tiene soporte para español y muchas sorpresas más!
Manos a la obra - Chatea con tus documentos de forma 100% local y privada usando GPT4ALL
Просмотров 16 тыс.8 месяцев назад
Manos a la obra - Chatea con tus documentos de forma 100% local y privada usando GPT4ALL
Cómo utilizar tus propios documentos con LLMs - Conceptos fundamentales de sistemas RAG
Просмотров 7 тыс.8 месяцев назад
Cómo utilizar tus propios documentos con LLMs - Conceptos fundamentales de sistemas RAG
Instala DeepSeek Coder para generar código localmente en tu propio equipo
Просмотров 3,9 тыс.9 месяцев назад
Instala DeepSeek Coder para generar código localmente en tu propio equipo
Crea tus propios GPTs personalizados (nueva funcionalidad OpenAI GPT-4)
Просмотров 1,3 тыс.9 месяцев назад
Crea tus propios GPTs personalizados (nueva funcionalidad OpenAI GPT-4)

Комментарии

  • @andrestorregrosa576
    @andrestorregrosa576 17 часов назад

    Buenas, eres un crack y estamos aprendiendo mucho con tus videos. Tengo una duda y no he visto ningún video sobre ello (o no he sabido encontarlo). ¿Cuál es la mejor forma de tener múltiples peticiones a un único LLM sin que necesitemos una cantidad ingente memoria? ¿Un gestor de colas estilo RabbitMq? ¿Algo más especifico? Gracias

  • @jaimemunoz3025
    @jaimemunoz3025 День назад

    hola, instale lm studio en un nitro 5 i5 9 generacion, nvidia 1650 corre a 6 t/s

  • @germanweber1972
    @germanweber1972 4 дня назад

    Buenas, excelente el video. Como le indico a ollma que utilice la GPU y no la CPU?

    • @LaHoraMaker
      @LaHoraMaker 4 дня назад

      Ollama debería detectar y utilizar automáticamente tu GPU. ¿Qué modelo de GPU y sistema operativo tienes?

    • @germanweber1972
      @germanweber1972 4 дня назад

      @@LaHoraMaker tengo instalado Windows 11 pro y la placa de video es una Gforce 3070

  • @ecmiguel
    @ecmiguel 5 дней назад

    Eres lo máximo,,,, todos tus videos son interesantes. Saludos desde Perú.!

  • @aratancoders
    @aratancoders 5 дней назад

    jajaja me gusta el toque musical

  • @lagallinaturuleta1302
    @lagallinaturuleta1302 5 дней назад

    Algo que todavía por más que he buscado no he encontrado, es el uso de un Orange PI 5 para emular un android. Actualmente estoy teniendo que dejar mi ordenador encendido para emular un android con bluestacks, pero estoy valorando comprarme uno de los modelos orange PI 5 con Genymotion u otro software para dejarlo encendido todo el día. ¿Sabrías un poco al respecto? ¿Lo desrecomendarías por alguna razón? Gracias de antemano y saludos

  • @jaimemunoz3025
    @jaimemunoz3025 6 дней назад

    felicitaciones , por el video

  • @jaimemunoz3025
    @jaimemunoz3025 6 дней назад

    gran aporte bro, saludos

  • @jribesc
    @jribesc 6 дней назад

    Muchas gracias !!!! Lo desconocía.

  • @sebastianmt02
    @sebastianmt02 7 дней назад

    me volvi loco con esta aplicacion, la verdad probé varios modelos entre ellos Llama3.1, tiene un nivel de error enorme, no es confiable, le cargue varios CSV, PDF, terrible el error, no se si hay alguna version paga o que pero mi experiencia es mala o tal vez los documentos deben cumplir cierto requisito, no se, espero saber el comentario de otros usuarios

  • @LV-cn9bx
    @LV-cn9bx 7 дней назад

    Lo siento. Siento no estar de acuerdo, pero me parece un perdida de tiempo esta app si tienes que editar los campos que no supo recoger. En fin esto de la moda de los LLM me parece que se a pegar un castañazo importante.

  • @williams7073
    @williams7073 7 дней назад

    Buenas, un buen trabajo, te vas un poco a veces por los cerros de Ubeda de lo que es el contexto del directo, pero aún así creo que lo explicas todo bastante bien y se ve que controlas de lo que hablas. Así que enhorabuena por el trabajo....😂😂😂 Una duda personal, entre Anything LLM y Open Webui, cual crees que es más eficiente y da mejores resultados? Propuesta: Seria interesante que hablaras de AutoGPT, considero que ese programa le vendría bien conocerlo a la mayoría de los que estamos aquí. Con respecto a AutoGPT me surge la duda de si usar Auto-GPT 5.1 con la Gui de Neuronic, o usar directamente uno con Gui integrada como podría ser el tractr/auto-gpt:4.0. Ya nos dirás cual es tu experiencia al respecto, si los probaste, o sino animate un día, considero que es un programa muy interesante. Bueno, te mando un saludo y se agradecen tus comentarios.

  • @sergioponcedeleon3078
    @sergioponcedeleon3078 8 дней назад

    Hola! genial tus videos! Una consulta si es posible. ¿Qué diferencia hay entre utilizar gpt4all y AnythingLLM para chatear con documentos.

  • @jackgaleras
    @jackgaleras 8 дней назад

    Se puede hacer un RAG con LM Studio? y que con la licencias comerciales o usar esto en el trabajo ...

  • @jackgaleras
    @jackgaleras 8 дней назад

    Hola genio, ya hice una pequeña red de computadores con un modelo libre gracias al video

  • @bechelego5337
    @bechelego5337 8 дней назад

    Hola César, ¿qué tal? Antes que nada me gustaría felicitarte por tu labor, ya son varios vídeos tuyos los que he visto y los encuentro de gran valor divulgativo, estoy aprendiendo mucho. Sin embargo, tengo una consulta específica que no he logrado resolver a día de hoy. Se me ha encargado generar una base de datos que contenga todos los conocimientos pertenecientes a artículos, libros y podcasts de un experto en neurociencia con el fin de que una ia se alimente de estos y pueda manejar información de neurociencia que pertenezca a las conclusiones de este experto. El caso es que tengo un quebradero de cabeza porque no sé cómo hacerlo. He intentado el RAG pero he descubierto que hay un máximo de tokens por interacción, cuando el objetivo final de esta ia es que con una sola pregunta pueda responder basándose en la información de todos los documentos (que son alrededor de 1000000 de palabras, lo que equivale a muchísimos tokens). Entonces contemplé el fine-tuning, pero no sé si es algo accesible para mí o se debería contratar un servicio. No sé si es una tarea que pueda solventarse con RAG ya que no llego a entender del todo cómo funciona el tema de los tokens, en el sentido de cómo lee los documentos, si lo hace todo del tirón, si va en busca de palabras clave para poder abarcar mucho más texto sin tener que analizarlo todo... Mi pregunta es, sin hacerte perder tiempo, si se te ocurre alguna forma de abarcar esta tarea, o cuál es la mejor. Mil gracias de antemano.

  • @Jesulex82
    @Jesulex82 9 дней назад

    Cuanndo descargo el modelo para LMstudio siempre me da un fallo ¿Me das algún consejo?

  • @claudioguendelman
    @claudioguendelman 9 дней назад

    Excelente y ahora en lo real como lo podríamos hacer con PHP el uplload es facil , el pasarlo a texto igual el tema es como hacemos para interinar con ollama para que tome el texto , analice y responda esperando el proximo video ojala sea con php

  • @josemalive
    @josemalive 10 дней назад

    Hola Cesar, una pregunta. Permite Anything LLM levantar un servidor como hace LM Studio para poder beneficiarse de ese "pseudoRag" que has montado con Anything LLM y los documentos en vectorial? Muchas gracias y excelente video.

  • @nippicorgi4615
    @nippicorgi4615 11 дней назад

    Después de ver este video me siento afortunado de poder acceder en la oficina a una rtx 4080 súper, y si, esa tarjeta de vídeo con 16 gb de Vram va más rápida que el mismo chatgpt en su página web, stable difusión también vuela mientras no se haga uso de scalers 4k o así. Y pensar que el que tiene esa tarjeta en su máquina ( el gerente ) solo la usa para word, excel y ver RUclips 😂😂, pero afortunado que yo siendo el de sistemas puedo por medio de una sesion ssh andar trasteando a través la red local. Definitivamente ese potencial de procesamiento no puede desaprovecharse 😂😂

  • @patagonia4kvideodrone91
    @patagonia4kvideodrone91 11 дней назад

    muy buen video, yo uso una 2060 con º1gb y va de maravillas con ia, con 64gb de ram,he corrido casi todo lo que sale en ias.

  • @juanpabloabedala5828
    @juanpabloabedala5828 12 дней назад

    que crack

  • @bechelego5337
    @bechelego5337 12 дней назад

    Hola, muchas gracias por tu vídeo, es excelente en todos los sentidos. Una pregunta, acabo de descargar GPT4All y no aparece SBert en los modelos, ¿qué puedo hacer? ¿Puedo instalarlo manualmente de forma fácil?

    • @LaHoraMaker
      @LaHoraMaker 12 дней назад

      Si no te aparece SBert para hacer los embeddings puedes instalar el modelo de nomic para generarlos. Este aparece en la última versión y funciona muy bien.

    • @bechelego5337
      @bechelego5337 12 дней назад

      @@LaHoraMaker Gracias!

  • @bladealex1844
    @bladealex1844 12 дней назад

    ¡Excelente video sobre el uso de agentes en IA! 👏 Como desarrollador trabajando en este campo, es fascinante ver a Andrew Ng explicar el potencial de estos sistemas. Hablando de aplicaciones prácticas, me gustaría compartir MALLO (MultiAgent LLM Orchestrator), un proyecto que he desarrollado basado en estos conceptos: github.com/bladealex9848/MALLO Pueden probarlo en vivo aquí: mallollm.streamlit.app/ MALLO implementa un sistema multi-agente que integra modelos locales, APIs de OpenAI y Together AI, junto con agentes especializados. Es emocionante ver cómo los conceptos explicados por Andrew Ng se alinean con lo que estamos logrando en la práctica. Lo que más me interesa es cómo estos sistemas de agentes pueden superar a los modelos fundacionales masivos a corto y medio plazo. En MALLO, hemos visto mejoras significativas en eficiencia y precisión, especialmente en dominios especializados como el legal y constitucional. Me pregunto, ¿alguien más está experimentando con sistemas multi-agente en sus proyectos? ¿Qué ventajas han notado en comparación con los enfoques tradicionales de IA? Este video realmente subraya el potencial de los sistemas basados en agentes para revolucionar cómo abordamos problemas complejos con IA. Estoy emocionado por seguir explorando y desarrollando estas ideas. Gracias por compartir esta valiosa información. Es un momento apasionante para estar en el campo de la IA, viendo cómo estos conceptos se materializan en soluciones prácticas y potentes. 🚀 #AgentesIA #MALLO #InnovaciónIA #AndrewNg #IAColaborativa

  • @marianodeiriondo6120
    @marianodeiriondo6120 12 дней назад

    Muy bueno y muy claro! En la empresa donde trabajo estamos buscando desarrollar un chatbot que le sirva de soporte a los empleados de mesa de entrada (quienes reciben las llamadas y consultas) para poder dar respuesta sobre procesos muy secuenciados y procedimentados a los clientes. Para que tener un poco mas de contexto: La empresa es una incubadora de emprendedores que presta ayuda a pequeñas empresas en lo referido a aplicación a prestamos, grants, seguros necesarios para la accion, constitución de la empresa, etc. Crees que utilizar LLM Studio con Ollama + Anything LLM puede ser una buena opcion para lograr esto? Hay alguna otra opcion que creas viable u optima? En lo referido a los Inputs: se puede usar una base de datos MySQL? Audios de llamadas transcriptos? Desde ya muchas gracias!

  • @pako360
    @pako360 12 дней назад

    Perfecto lo que estuve buscando hace mucho tiempo!!!!! Gracias miles Maestro

  • @uskola
    @uskola 16 дней назад

    Que buen vídeo, me has puesto al día de las novedades y cosas que no conocía en una hora, gracias

  • @TheQuiyax
    @TheQuiyax 16 дней назад

    Hola! Me gustaría poder aclarar que es tener un Hardware potente o medianamente potente, se me dificulta establecer en que rango esta mi computador para ejecutar un modelo u otro.

  • @juanjesusligero391
    @juanjesusligero391 17 дней назад

    ¡Muchas gracias por el vídeo! :) Echo en falta timestamps para las secciones en las que hablas de cada modelo, eso ayudaría a poder volver y repetir lo que más me haya interesado en el vídeo.

  • @estuardocelis5344
    @estuardocelis5344 19 дней назад

    ¿qué seria más importante actualizar, el cpu ryzen (primera generación el más básico o la tarjeta de video gtx 570 ? la tarjeta madre acepta hata pci3.0 y acepta el cpu más potente am4 axistente. Gracias

  • @gokgnz3861
    @gokgnz3861 20 дней назад

    como se usa el training?

  • @Yoko-0x0
    @Yoko-0x0 21 день назад

    Bro, un reto. Estoy usando LM Studio con LLama 3.1 le paso un scheme de base de datos +200 tablas y convierto la paticion (lenguaje natural) a sentencia SQL y luego PY lo ejecuta. con 3 tablas es facil pero con tantas tablas los modelos fallan e inventan tablas o join de tablas que no existen. algun consejo ?

  • @SonGoku-pc7jl
    @SonGoku-pc7jl 22 дня назад

    muchas gracias!

  • @davidwebchile
    @davidwebchile 23 дня назад

    Muy bueno tu canal y lo que compartes, muchas gracias!

  • @alejandroochoa5010
    @alejandroochoa5010 24 дня назад

    Lanzamiento de Modelos Masivos: Meta lanzó LLaMA 3.1 con 405 mil millones de parámetros, superando a GPT-4 y siendo el modelo de código abierto más grande hasta ahora. Este cambio también incluye una licencia más permisiva que permite utilizar estos modelos para generar datos sintéticos para entrenar otros modelos. Evaluación y Comparaciones: LLaMA 3.1 supera en rendimiento a GPT-4 y otros modelos grandes como Claude 3.5 y Sonet en muchas métricas. Comparaciones con modelos más pequeños, como el LLaMA 2 y Mistral, muestran mejoras significativas en eficiencia y rendimiento. Nuevos Modelos y Ampliación de Familias: Microsoft amplió su familia Phi a modelos más grandes con contextos extensos y licencias permisivas. Nvidia lanzó NeMo 4 con 340 mil millones de parámetros, optimizado para generar datos sintéticos. Competencia en el Mercado: Anthropic lanzó Claude 3.5, con una ventana de contexto de 200,000 tokens y coste reducido. OpenAI respondió con una versión más barata de GPT-4. Modelos Disponibles Localmente: Google presentó Gemini y Gemini 2, con mejoras significativas en modelos pequeños y grandes. Mistral y Nvidia colaboraron en Mistral NeMo 12b para uso empresarial. Modelos de China: Alibaba lanzó Qwen 2, entrenado en 27 idiomas y con modelos desde 0.5 hasta 72 mil millones de parámetros. Modelos como Qwen 2 demuestran un rendimiento superior en muchos aspectos comparados con otros modelos abiertos. Modelos Especializados: DeepSpeed 2 de Microsoft y CodeTStral de Mistral se destacan en la generación de código y eficiencia en procesamiento. Agentes y Uso de Herramientas: Nuevos modelos como LLaMA 3 Grok Tool Use Models permiten el uso de herramientas externas. InternLM presentó un modelo con una ventana de contexto de 1 millón de tokens. Modelos de Datos Sintéticos y Multimodalidad: Modelos como Mistral NeMo 12b y Qwen 2 usan datos sintéticos y combinan texto, imágenes y código. Apple y EPFL han trabajado en modelos multimodales que pueden segmentar, describir y modificar imágenes. Avances en Licencias y Disponibilidad: Modelos como DeepSpeed y Florence de Microsoft están disponibles bajo licencias permisivas como MIT y Apache 2.0. Modelos como CodeTStral Mamba utilizan arquitecturas nuevas que escalan mejor con contextos altos.

  • @JaviArte
    @JaviArte 24 дня назад

    Un apunte. El LM Studio funciona muy bien, pero no puede ejecutar modelos si tienes una CPU antigua :( (aunque elijas que corra en la GPU)

  • @JaviArte
    @JaviArte 24 дня назад

    Lo primero, gracias por el mini-tuto :) Ahora ya está disponible el nuevo modelo, Llama 3.1, e incluso el de tamaño 8b, es bastante competente. Ya no es tan "tonto" como los anteriores ejecutados en local. Por otro lado, la interfaz web para interactuar con el modelo, ahora se llama "Open WebUI" en lugar de "Ollama WebUI". PD: para arrancar el "Open WebUI" veo que era necesario instalar Docker... y madre mía lo pesado que es y cómo ralentiza el equipo :(

  • @xavierquerol9087
    @xavierquerol9087 25 дней назад

    Gracias, muy buena información

  • @adanpalma4026
    @adanpalma4026 25 дней назад

    He visto cientos de videos que prometen eso he probado todo y el porcentaje de éxito de la recuperación 60% si acaso Y eso estoy hablando de documentos sencillos cuando hablamos de documentos complejos ni te cuento Termina uno pagando servicios como la llamaparsw de llamaindex y usando modelos de pago porque si el proceso de Chungking y en Bing es malo pues el modelo te va a responder mal

  • @javaboy6581
    @javaboy6581 26 дней назад

    Por fin vuelves maestro!

  • @Yoko-0x0
    @Yoko-0x0 26 дней назад

    Hi bro, esto se puede hacer en LM studio?

  • @akhathos1618
    @akhathos1618 26 дней назад

    Eres mi canal de referencia en IA. Gracias por todo tu gran trabajo.

  • @Edu2pc
    @Edu2pc 26 дней назад

    Suelo usar ollama para correr en local modelos pequeños. Me interesa mucho poder correr Florence o Chamaleon peor no llegan a ollama ¿sería posible que nos digas como tenerlo en un servidor parecido a ollama que lo pueda usar con una Rest api

  • @a0z9
    @a0z9 26 дней назад

    El mini o es rápido y barato

  • @Pablo-Ramirez
    @Pablo-Ramirez 26 дней назад

    Hola muchas gracias por tus videos. Sabes que probé Llama3.1 con Ollama cambiando una aplicación de RAG qué tengo y no me responde ninguna pregunta, sin embargo, cambio al modelo anterior y responde muy bien. Incluso subí todos los archivo PDF 😢 y tampoco funcionó. A que se podrá deber esta situación? Saludos.

  • @jackgaleras
    @jackgaleras 26 дней назад

    Gracias

  • @carlosrav1979
    @carlosrav1979 28 дней назад

    excelente explicación!

  • @Javier_Espinoza
    @Javier_Espinoza 28 дней назад

    Muy buen video, y se puede hacer con phi 3?

    • @LaHoraMaker
      @LaHoraMaker 28 дней назад

      Hola Javier, Muchas gracias por tu comentario. En principio se podría hacer con cualquiera de los modelos que soporta Ollama, incluido Phi3. Ya nos contarás qué tal los resultados!

  • @code_1988
    @code_1988 28 дней назад

    Que bien se escucha el audio , felicitaciones por mejorar el equipo , saludos

  • @luistaboada9379
    @luistaboada9379 29 дней назад

    Muchas gracias por compartir y por tu tiempo!!! tengo la posibilidad de formatear una PC y obtar por windows o Linux. En tu experiencia, en cual S.O. ha corrido mejor? saludos y buena semana.