LLaMA 3 — это языковая модель, созданная для создания текста, написания кода и для многих других применений. Нейросеть умеет вести продуктивный диалог, учитывая контекст написанных сообщений.

Ассистент на базе LLaMa 3 встроился под капот в WhatsApp, Messenger и других социальных сетях Цукерберга.

Помимо этого чат-бот доступен отдельно в веб-версии.

Сравнение LLaMa 3 с другими нейросетями

Модель LLaMA 3 тренировали на двух специально созданных кластерах с 24 тысячами GPU на базе более чем в 15 триллионов токенов. ИИ способен обрабатывать длину контекста в 8к, что в два раза больше, чем у Llama 2.

Как пользоваться LLaMa 3?

Пощупать модель можно в Perplexity Labs бесплатно и без танцев с бубном — заходим, выбираем llama-3-70b-instruct и наслаждаемся.

Если нужны танцы с бубном, то можно использовать с «трехбуквеным сервисом» через Groq (дает сумасшедшую скорость работы) или вообще добавить в VSCode.

LLaMa в VSCode

code gpt видео

Активируйте его у себя легко: установите расширение CodeGPT для VSCode и скачайте Ollama, а затем введите в терминале команду

ollama pull llama3:8b

Затем перейдите в настройки расширения и выберите LLaMa 3 в разделе «Select a model». Готово!

Комментарии

Оставьте Ваше сообщение

Подписаться
Уведомить о
0 Комментарий
Межтекстовые Отзывы
Посмотреть все комментарии

Смотрите далее

Ознакомьтесь с другими работами

0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x
()
x