Тёмный

¡Olvídate de GitHub Copilot! 😱 Prueba Granite Code de IBM AHORA | Tutorial 

Artificial Consciousness
Подписаться 4,7 тыс.
Просмотров 23 тыс.
50% 1

Hoy exploramos una revolución en el mundo de la programación: Granite Code de IBM. Estos modelos de lenguaje, diseñados específicamente para tareas de codificación, están disponibles en versiones de 3, 8, 20 y 34 billones de parámetros. ¡Y lo mejor de todo es que son completamente gratuitos y de código abierto!
🔍 ¿Qué hace especial a Granite Code?
Granite Code ha sido entrenado con 116 lenguajes de programación, ofreciendo capacidades avanzadas de autocompletado, generación de código, documentación y reparación de código. Además, puedes integrarlo fácilmente en tus herramientas de desarrollo favoritas. En este video, te mostraré cómo hacerlo paso a paso.
📊 Comparativas y Rendimiento
Analizamos a fondo el rendimiento de Granite Code comparándolo con otros modelos populares como Mistral, Code Llama, Llama 3, Code Gemma y Star Coder 2. ¿Quién se lleva la corona? ¡Descúbrelo en nuestro análisis detallado!
💻 Cómo probar Granite Code
Te mostraré cómo puedes probar el modelo más grande de 34 billones de parámetros de forma gratuita con una opción increíble de NVIDIA. Además, te guiaré en cómo obtener y usar la API para integrarla en tus proyectos.
🔧 Configuración Local
Si prefieres usarlo de forma local, también te explicaré cómo hacerlo utilizando Ollama y la extensión Continue para convertir a Granite Code en tu nuevo copiloto de programación.
🌟 Granite Code: Una Alternativa Sólida
Con su rendimiento, confiabilidad y facilidad de uso, Granite Code es una excelente adición al toolkit de cualquier desarrollador, y una sólida alternativa a GitHub Copilot y otros asistentes de código.
No olvides dejar tus likes, comentarios y suscribirte al canal para más tutoriales como este. ¡Hasta la próxima!
🔗 Enlaces útiles:
- Sitio web de IBM Granite Code: github.com/ibm-granite/granit...
- Probar Granite Code en NVIDIA: build.nvidia.com/
- Ollama: ollama.com/
🛠️ Herramientas mencionadas:
- IBM Granite Code
- NVIDIA Build
- Ollama
- Continue Extension
#GraniteCode #code #IBM #programacion #Desarrollo #AI #programacion #OpenSource #GitHubCopilot #llm #ia #ias #copilot #github #gratis #fyp

Наука

Опубликовано:

 

4 июн 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 74   
@GerardoEscobar-sd8tp
@GerardoEscobar-sd8tp 13 дней назад
anda a full mi nuevo copilot, se agradece
@Conciencia_Artificial
@Conciencia_Artificial 12 дней назад
¡Excelente! Y qué bueno que te ha servido. Gracias por comentar.
@jadovi
@jadovi 8 дней назад
Excelente video muy bien explicado y al grano ! Nuveo subscriptor por aca !
@Conciencia_Artificial
@Conciencia_Artificial 8 дней назад
¡Muchas gracias por tu comentario!
@samuelivannoya267
@samuelivannoya267 10 дней назад
Alta data. Muchas gracias. Nuevo suscriptor.
@Conciencia_Artificial
@Conciencia_Artificial 10 дней назад
Muchas gracias por el apoyo amigo!
@user-cn9gz3ul2x
@user-cn9gz3ul2x 13 дней назад
Tienes buenos videos bro ... Me suscribo.
@Conciencia_Artificial
@Conciencia_Artificial 13 дней назад
Muchas gracias por tus comentarios y el apoyo! Recibiendo comentarios positivos me ayudan mucho a seguir mejorando mi contenido!
@jennderramos322
@jennderramos322 14 дней назад
Esta muy interesante tu canal. El tema de las AI me parece muy interesante (sigo a Dot CSV desde muchisimo antes del boom de ChatGPT o Dall-E 😅). Estaré al tanto de cosas nuevas que subas 👍
@Conciencia_Artificial
@Conciencia_Artificial 14 дней назад
¡Muchas gracias por tu comentario!, comentarios así me motivan a seguir mejorando el contenido.
@danivargasgarcia7647
@danivargasgarcia7647 8 дней назад
Extension Cody AI de vsc, sin rodeos y va increible. Lo mas similar que vi a Copilot. Nuevo sub!
@Conciencia_Artificial
@Conciencia_Artificial 8 дней назад
No la conocía y la empecé a revisar y si es una excelente alternativa, el único punto débil que veo es que solo te permite utilizar 500 sugerencias de código al mes como usuarios gratuitos, y veo que, si es ilimitado, pero si pagas por su versión pro, 500 son muy buenos, pero igual alguien podría terminárselos muy rápido. ¡Muchas gracias por comentar y apoyar el contenido!
@jonabadd
@jonabadd 14 дней назад
Muy interesante, saludos
@Conciencia_Artificial
@Conciencia_Artificial 14 дней назад
Gracias por comentar, saludos! 👋
@airdany
@airdany 14 дней назад
Uso LLMs para consultar sobre diferentes temas... no por programar código; pero me gustó que en este video se compararan modelos de IA. A dia de hoy me esta costando tener una preferencia entre varios modelos: Gemini, Reka, Copilot, GTP4-o, Claude, Mistral,.... Me gustaria saber si unos tienes respuestas más largas por el tema de 8B, 30B, 70B,.... en sus datasets o porque motivo... o tener más datos a la hora de dar el mejor uso cuando uno quiere aprender de un tema conversando con una IA
@Conciencia_Artificial
@Conciencia_Artificial 14 дней назад
La diferencia en el tamaño de los modelos de lenguaje de inteligencia artificial, como los mencionados de 8B, 30B, 70B, etc., refiere principalmente a la cantidad de parámetros que componen cada modelo. Los parámetros en estos modelos se pueden entender como las piezas de conocimiento que ha aprendido el modelo durante su entrenamiento. Te pongo ejemplos más detallados: - Capacidad de Comprensión y Generación Modelos grandes: Tienen una mayor cantidad de parámetros, lo que generalmente les permite tener una mejor comprensión del lenguaje y capacidad para generar respuestas más coherentes y contextuales. Son más eficaces en entender la complejidad del lenguaje humano. Modelos pequeños: Aunque pueden manejar tareas generales de procesamiento de lenguaje, pueden no ser tan precisos o coherentes como los modelos más grandes. - Costo y Eficiencia Modelos grandes: Generalmente requieren más recursos de computación para entrenar y operar, lo que se traduce en mayores costos operativos. En caso de correrlos de forma local, necesitarías computadoras muy potentes para poder ejecutarlos. Modelos pequeños: Son más económicos en cuanto a recursos de computación y pueden ser más rápidos en proporcionar respuestas debido a su menor complejidad y tamaño. - Aplicabilidad Modelos grandes: Son preferibles para aplicaciones donde la precisión, la profundidad del conocimiento y la contextualización son críticas, como en asistentes personales avanzados, sistemas de recomendación personalizados, o herramientas de apoyo a la decisión. Modelos más pequeños: Pueden ser adecuados para aplicaciones que requieren respuestas más generales o donde la velocidad de respuesta es más crítica que la profundidad del contenido.
@mompoxinoennyc
@mompoxinoennyc 13 дней назад
Ese lanzamiento fue en noviembre del año pasado, puedes hacer un video del codestral? Creo que también es open source
@Conciencia_Artificial
@Conciencia_Artificial 13 дней назад
Sobre Codestral si subí un video recientemente, igual explico cómo aprovechar su API gratuita (hasta el 1 de agosto del 2024) y también como correrlo de forma local con ollama. Te comparto el video: ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-KgW-YTm5sG8.html Lo de Granite de IBM lo quise compartir debido a que no fue tan sonado y tiene buen rendimiento en el área de codificación, además es otra muy buena alternativa 100% gratuita a otros modelos y a Copilot (estaré subiendo videos de modelos open source y herramientas útiles para correrlos en nuestros equipos).
@DiegoHerrero-we5qc
@DiegoHerrero-we5qc 10 дней назад
Nuevo suscriptor, seria bueno hacer una comparativa entre estas alternativas y seleccionar el mejor. Consulta, donde puedo ver los requeremientos a nivel hardware para correr los distintos modelos que ofrece granite? Gracias
@Conciencia_Artificial
@Conciencia_Artificial 9 дней назад
Si, estoy considerando realizar un video poniéndolos a prueba a ver cuál tiene más/menos errores. En cuanto pueda comenzaré a trabajar en prompts y ejercicios para la comparativa. En cuanto a ver los requerimientos, lamentablemente no hay un sitio oficial y exacto que muestra dicha información. Ollama tiene solo un breve texto donde dice: "Debe disponer de al menos 8 Gigabytes de RAM para ejecutar los modelos 7B, 16 Gigabytes para ejecutar los modelos 13B y 32 Gigabytes para ejecutar los modelos 33B". Si tienes una GPU obvio tus modelos correrán más rápido. Yo tengo una RTX 4070 y 32gb de RAM, y puedo correr modelos hasta de 22-25 billones de parámetros. Pero ya de 30 en adelante se empieza a tardar bastante la generación en sus respuestas.
@WarioNeila
@WarioNeila 13 дней назад
Hola, ¿hay forma de usar granite con Continue sin ejecutarlo localmente con Ollama? Gracias por estos vídeos, ya me alegraste la vida con Codestral 😬
@Conciencia_Artificial
@Conciencia_Artificial 11 дней назад
Me parece que la única forma para utilizar “gratis” sería mediante API pero con proveedores como NVIDIA (la que muestro en el video), Fireworks AI (regala 1 dólar al registrarse). De ahí no conozco alguna que te permita su uso sin pagar. En caso de que encuentre alguna opción te la compartiré por aquí. 👋
@SonGoku-pc7jl
@SonGoku-pc7jl 14 дней назад
gracias! buen open source! :D aunque el otro dia vi tu video de codestral y lo dejaré hasta el 1 de agosto o julio era no? :) o vale la pena crees las 1000 solicitudes gratis utilizar granite 34 con apikey en code gpt?
@Conciencia_Artificial
@Conciencia_Artificial 14 дней назад
Si, es hasta el 1 de Agosto del 2024. Pues podrías probar ambas opciones y compararlas a ver cuál te da mejores resultados y nos compartes tu opinión. O bien utilizar uno como autocompletado y el otro en formato de chat. Creo que ambas opciones son buenas, aunque igual me gustaría realizar una comparativa después y agregar CodeQwen. Mucha gracias por comentar y apoyar el contenido!
@xmagcx1
@xmagcx1 13 дней назад
​@@Conciencia_Artificial ese video lo espero con ansias ❤
@Darebit2k1
@Darebit2k1 8 дней назад
Excelente aporte, muchas gracias. Una pregunta: instalé el modelo granite-code:8B, ¿Cómo lo desinstalo?. Gracias de antemano por tu respuesta.
@Conciencia_Artificial
@Conciencia_Artificial 8 дней назад
Te comparto los pasos para borrarlo 1- Abre tu terminal y corre el comando "ollama", y te deben aparecer los comandos disponibles (una lista de comandos). 2- Ahora para identificar el nombre clave del modelo granite que descargaste corre el comando "ollama list" 3- Idéntica el nombre del modelo que descargaste, puede ser "granite-code:3b" o "granite-code:8b", depende como te aparezca a ti, pero copia el nombre tal cual aparece 4- Corre el comando "granite-code:3b" y se bórrala de tu equipo el modelo
@Darebit2k1
@Darebit2k1 7 дней назад
@@Conciencia_Artificial Muchas gracias
@DiegoGiovany
@DiegoGiovany 14 дней назад
Ustedes que todos lo saben, necesito un modelo para manejar y editar datos de Excel estaba utilizando vertex IA pero no soporta la cantidad de tokens de salida
@GerardoEscobar-sd8tp
@GerardoEscobar-sd8tp 13 дней назад
hacelo con python si sabes porgramar por ahi te simplifica la vidfa y exportas un excel
@juanfra5504
@juanfra5504 13 дней назад
Gracias por el video. Me interesa mucho este tema. Una pregunta: ¿cómo puedo saber los requisitos para cada modelo?
@cachipum
@cachipum 12 дней назад
una regla bastante acertada es que tengas el doble de memoria de video de lo que ocupa el modelo, es decir, si ocupa 8gb, que tengas un mínimo de 16gb de memoria de vídeo.
@Conciencia_Artificial
@Conciencia_Artificial 12 дней назад
Realmente no he encontrado información que diga exactamente los requisitos exactos para cada modelo, solo he realizado pruebas personales con mi pc (Rtx 4070, 32gb ram, ryzen 7), y una MacBook con M1 y 8gb de ram. Y de esa forma me voy dando idea de los requisitos, el tip que dio @cachipum suena bastante bien para correr los modelos de forma eficiente. Si encuentro información que ayude a resolver estas dudas, te la estaré compartiendo por aquí. 👋
@harolparamo
@harolparamo 12 дней назад
Amigo como se llama el programa donde pegaste el código, hace muchos años programaba en pascal y ahora con la inteligencia artificial he decidido reconectar con el codigo, pero no conozco muchas herramientas
@Conciencia_Artificial
@Conciencia_Artificial 12 дней назад
Visual Studio Code, digamos que es de los más populares actualmente y tiene una gran cantidad de extensiones, si quieres puedes ver este video, donde explico un poco más lento las herramientas que utilicé y como instalarlas, igual te puede servir mucho para arrancar. ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-8PKIeroOARg.htmlsi=ihXB4e7kQkKZDqXb
@colommbiano
@colommbiano 13 дней назад
amigo cual me aconsejas mejor instalar ya que tienes otro video llamado "DEJA DE PAGAR por Github Copilot con esta alternativa LOCAL & OPENSOURCE | Tutorial" entonces cual me aconsejas mejor para instalar ?
@Conciencia_Artificial
@Conciencia_Artificial 13 дней назад
Según los pocos comentarios que existen actualmente, todo apunta a que CodeQwen es superior a los modelos de Granite, pero realmente faltaría que realizan más benchmarks contra el modelo más grande de Granite. Lo que puedes realizar por el momento es probarlos tú mismo, y ver cual tiene mejor rendimiento y mejores respuestas.
@oscarhernandez311
@oscarhernandez311 14 дней назад
Para usarlo localmente qué requisitos debería tener la pc?
@Conciencia_Artificial
@Conciencia_Artificial 14 дней назад
Aunque no he visto una información específica al respecto que te pueda compartir, puedo decirte lo que he probado personalmente. Primero dependerá mucho el modelo que quieras ejecutar, por ejemplo, el modelo de 3B (similar a Phi-3 Mini), necesita entre 3GB y 4 GB de RAM. El de 8B, probablemente ya te empiece a exigir VRAM, consideraría que con 4GB-6GB de VRAM podrías ejecutarlo sin problemas. El modelo de 20B a mí me corre en mi PC con 32GB de RAM y una RTX 4070 con 12GB de VRAM. El modelo con 34B sinceramente ya no lo he probado, pero podría ser que te pida 64GB de RAM (o más) y una gráfica más potente, con 16 o 24 de VRAM para correrlo de forma más eficiente.
@victoriaolivan2178
@victoriaolivan2178 11 дней назад
Pregunta tonta, pero si o si se requiere GPU no es cierto? Instalé lo mismo en mi core i7 y no aparece el mensaje Hola, en que puedo ayudarte luego de varios minutos.
@Conciencia_Artificial
@Conciencia_Artificial 11 дней назад
Ninguna pregunta es tonta amigo, y depende el modelo que descargues, por ejemplo modelos muy pequeños con la RAM es siguiente como Phi-3 mini, los modelos de 0.5b 1.5b también. Pero ya modelos de 7b para arriba si empiezan a requerir gb en VRAM (una gpu).
@crisuar1989
@crisuar1989 8 дней назад
El inconveniente con el uso de la API de NVIDIA es que sólo te dan esos créditos gratuitos. Sin embargo, no puedes comprar más cuando de conectas desde una cuenta personal. Tienes que inscribirte en el plan Enterprise para poder comprar más, lo cual es un poco más complicado. ¿Alguien sabe si hay algún otro servicio en la nube disponible que proporcione acceso al modelo Granite? Así como NVIDIA, pero que permita la compra de créditos?
@Conciencia_Artificial
@Conciencia_Artificial 8 дней назад
Si, Nvidia tiene ese problema que mencionas, estuve buscando en los servicios que he utilizado, como Fireworks AI, Together AI, pero no brindan ese modelo. Si gustas una API, puedes utilizar Codestral, actualmente se encuentra gratis hasta el 1 de agosto de 2024, tengo un video para que puedas obtener acceso si gustas verlo y aprovecharlo. ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-KgW-YTm5sG8.html En caso de que encuentre algún proveedor con Granite, te lo estaré compartiendo por aquí.
@crisuar1989
@crisuar1989 6 дней назад
@@Conciencia_Artificial Gracias bro, muy buenos aportes! estoy atento al canal. Saludos!
@colommbiano
@colommbiano 13 дней назад
dices que es gratis pero acá en este minuto 3:55 dices que nos dá un crédito de 1000 solicitudes entonces cuando se acabe habrá que comprar ?
@Conciencia_Artificial
@Conciencia_Artificial 13 дней назад
Cuando se terminen los créditos, ya no te permitirá usarlo mediante su API, y tampoco están dejando comprar más créditos por ahora. Lo que puedes seguir utilizando de forma gratuita, es directamente el modelo en el sitio web de build.nvidia.com/ e instalarlo de forma local y utilizarlo de forma ilimitada.
@colommbiano
@colommbiano 13 дней назад
@@Conciencia_Artificial maestro podrias hacer un video de como instalarlo de forma local y utilizarlo de forma ilimitada. ?
@risehit
@risehit 10 дней назад
será mejor que el copilot y más rapido
@Conciencia_Artificial
@Conciencia_Artificial 10 дней назад
Tengo otros videos en el canal donde muestro otros modelos como CodeQwen, Codestral que son excelentes alternativas y también puedes configurarlos tipo GitHub copilot, te recomiendo verlos para tener más opciones. Y sobre si es mejor, pues son gratuitos si la corres con tu mismo equipo, o si aprovechas el api que se encuentra gratuita hasta el 1 de agosto de Codestral. La ventaja de usarlos de forma local es la privacidad al 100% que se obtiene, en comparación de GitHub que entrena su modelo con nuestro código.
@ribosalamanca3003
@ribosalamanca3003 7 дней назад
Obtengo este mensaje 'ollama' no se reconoce como nombre de un cmdlet, como se resuelve?
@JulioAmaya-vb3ts
@JulioAmaya-vb3ts 6 дней назад
Porque no lo tienes instalado en tu PC, debes instalar ollama para ejecutar el comando ollama desde la terminal, y si lo tienes instalados revisa que este en el path
@Conciencia_Artificial
@Conciencia_Artificial 5 дней назад
Si falta instalarlo o configurarlo de forma correcta en el PATH de Windows como menciona @julioAmaya para que la terminal detecte el comando
@tektronix475
@tektronix475 4 дня назад
no funka amigo. le pedi a granite un script python basico para detectar si la webcam esta conectada, y no funciona.
@Conciencia_Artificial
@Conciencia_Artificial День назад
hola, creo que también dependerá si le especificaste el tipo de cámara y toda esa info del dispositivo. También si el modelo tiene lo necesario como librerías de código que puedan apoyarte a esa tarea específica, por ejemplo, a veces se necesitan descargar cosas extra para conectar y programar con equipos externos. ¿Qué modelo estás usando?
@xmagcx1
@xmagcx1 13 дней назад
será mejor que llama3??
@Conciencia_Artificial
@Conciencia_Artificial 13 дней назад
Según sus pruebas, es mejor que Llama 3 7B, y Code Llama 7B. Pero eso únicamente comparándolo con el modelo de granite-code:8b. Todavía no hay benchmarks que comparen sus modelos más grandes de 20B y 34B. Por lo mientras también puedes probar y utilizar los modelos de Codestral (ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-KgW-YTm5sG8.html) y CodeQwen (ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-8PKIeroOARg.html). Los 2 modelos que acabo de comentarte también tengo video en el canal, si gustas verlo. Son excelentes opciones y permiten utilizarlos tanto de forma gratuita mediante su API o correrlos localmente con ollama.
@newsta88
@newsta88 10 дней назад
no me aparece la opcion de autocompletar
@Conciencia_Artificial
@Conciencia_Artificial 9 дней назад
Hola, te refieres en el archivo config.json? Si es así, intenta copiar tal cual muestro en el video la parte de "tabAutocompleteModel". Igual te comparto esa parte del archivo para que la puedas copiar fácilmente. "tabAutocompleteModel": { "title": "granite-code:8b ", "provider": "ollama", "model": "granite-code:8b " }
@rolygonzaloochoaarancibia8417
@rolygonzaloochoaarancibia8417 14 дней назад
Hola la verdad que con tantos modelos no se con cuál quedarme
@Conciencia_Artificial
@Conciencia_Artificial 14 дней назад
La parte positiva es que sigan saliendo más modelos para poder utilizarlos de forma local, me parece que sigue siendo un poco superior CodeQwen, lamentablemente faltan más benchmarks que publiquen para comparar rendimientos, pero puedes probar todos sin problema y ya decidir y compartirnos cuál te convenció más. Saludos! 👋
@joasegovia9427
@joasegovia9427 14 дней назад
CodeQwen de quien es?? Es open tsmbien y confiable en tema de etica y legal al igual que edte??
@carlos25222
@carlos25222 13 дней назад
por que no gpt4? lei que ahora por 20 dolares te dan hasta 80 interacciones cada 3 horas, dependiendo de la congestion existente
@joasegovia9427
@joasegovia9427 13 дней назад
@@carlos25222 en mi caso quiero algo especial para codigo y sin pagar… local y que este offline… por temas de seguridad del proyecto y trabajo
@jerovicpino
@jerovicpino 4 дня назад
hola, es lento o son cosas mías?
@Conciencia_Artificial
@Conciencia_Artificial 3 дня назад
Depende mucho el modelo que estés usando y las especificaciones de tu pc, ¿cuál estás probando?
@jerovicpino
@jerovicpino 3 дня назад
@@Conciencia_Artificial hola, el de 8B mi portatil es una hp Ryzen5 con 32Gb de ram, sera q estoy configurando algo malo, gracias por las respuesta de los poco q explican bien y de paso resp los msj, un nuevo suscriptor
@max_unch
@max_unch 8 дней назад
Este video es hecho por una IA 😄😀
@Conciencia_Artificial
@Conciencia_Artificial 8 дней назад
Solo la voz, todo lo demás lleva horas de investigación, edición y trabajo. Aunque espero en un punto la IA me ayude a agilizar más todo el proceso jaja. Gracias por comentar!
@GGnojungla
@GGnojungla 8 дней назад
Solo la voz es con IA, la edición y la información no
@jaamproducciones
@jaamproducciones 13 дней назад
no funciona
@Conciencia_Artificial
@Conciencia_Artificial 13 дней назад
¿Estás obteniendo algún error? ¿O qué es lo que no está funcionando correctamente?
@AaronCamposMiranda
@AaronCamposMiranda 14 дней назад
Entonces para no usarlo local el autocompletado no es ilimitado?
@Conciencia_Artificial
@Conciencia_Artificial 14 дней назад
Desde la plataforma que muestro de NVIDIA no (solo regalan 1000 solicitudes), pero si quieres puedes optar por Codestral, que es una alternativa muy potente (aún faltan benchmarks para decir cuál es mejor), y que se encuentra de forma gratuita mediante su API hasta el 1 de Agosto del 2024. En un anterior video muestro como obtenerla por si gustas checarlo: ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-KgW-YTm5sG8.html
Далее
Comedy Moments 🤣 #2
00:25
Просмотров 3 млн
small vs big hoop #tiktok
00:12
Просмотров 4 млн
Uso de Granite con VS Code
14:22
Просмотров 204
Vim Tips I Wish I Knew Earlier
23:00
Просмотров 38 тыс.
Cómo Utilizar ChatGPT Para Principiantes | Tutorial 2024
3:45:16
ВИPУC НА МАКБУК
0:21
Просмотров 31 тыс.