Hace dos décadas, el cofundador de Google, Larry Page, tuvo el sueño de escanear digitalmente millones de libros. Esto desencadenó una larga batalla legal que la empresa finalmente ganó.
Hoy en día, la aparición de modelos masivos de IA está revolucionando el debate que ha arrasado muchos libros. En consecuencia, Google lanzará próximamente un modelo de IA llamado Gemini 1.5 Pro con una ventana contextual de 1 millón de tokens, aproximadamente 750.000 palabras o el equivalente a entre 3 y 7 libros, dependiendo de la extensión. El modelo también puede capturar 1 hora de video, 11 horas de audio y más de 30.000 líneas de código a través de indicaciones del usuario, según Business Insider .
Gemini 1.5 Pro de Google tiene una gran ventana de contexto que puede leer varios libros
Gemini 1.5 Pro ya está disponible en versión preliminar para algunos afortunados primeros evaluadores. Una vez que esté completamente implementado, los usuarios podrán traer tomos enteros, historias de casos legales completos o lo que quieran. Este modelo de Google puede ingresar rápidamente toda la información y luego responder preguntas sobre los datos.
Después de años de intentar escanear millones de libros, Google ahora tendrá usuarios dispuestos a introducir volúmenes enteros en los modelos de inteligencia artificial de la empresa, junto con montañas de texto, código, imágenes, videos y más. Es probable que esta información se utilice como datos de entrenamiento para ayudar a Google a crear otros modelos. Google dijo que los datos compartidos con Gemini “ayudan a mejorar y desarrollar los productos, servicios y tecnologías de aprendizaje automático de Google”.
Apple en conversaciones con Google para llevar la herramienta de inteligencia artificial Gemini al iPhone
Gemini 1.5 Pro, el modelo de inteligencia artificial de Google con la ventana contextual más grande, aún no está completamente disponible, por lo que no se han publicado los términos del servicio. Un portavoz de Google se negó a comentar qué métodos de uso de datos se aplicarían a este modelo.
Enlace de origen
Kommentar (0)