Войди и оставь комментарий

Или войди с помощью

5 полностью бесплатных аналогов ChatGPT для Mac и ПК. Все работают без интернета

Никита Горяинов avatar | 14
FavoriteLoading В закладки
5 полностью бесплатных аналогов ChatGPT для Mac и ПК. Все работают без интернета

Нам ограничивают доступы к западным нейросетям, вроде ChatGPT. Что ж, скачаем сами аналог и будем использовать с собственного компьютера.

Прогресс развития нейросетей, особенно открытых и отделённых от мира коммерции, не остановить. Зачем платить кому-то или отдавать свои переписки в интернет непонятно кому, если можно иметь своего собственного нейросетевого чатбота?

Ранее я рассказывал про LM Studio и возможности, которые открывает эта программа практически всем владельцам Mac и ПК. В комментариях вы попросили дать чуть больше примеров нейро-ботов – это и сделаю в этой статье.

Что такое LM Studio, кратко

LM Studio – бесплатное приложение с открытым кодом, которое запускает нейросетевые чат-боты прямо на вашем компьютере. Его даже упоминала Apple в презентации Mac с чипами M4.

В LM Studio все действия, переписки и прочие данные хранятся только на устройстве пользователя. В интернет не уходит ничего. Это будет на 100% ваш собственный ИИ-помощник, за который не придётся платить – в отличие от ChatGPT и многих других онлайн-нейросетей и чат-ботов.

Вы просто скачиваете LLM-модель (файл с уже обученной нейросетью-чатботом), запускаете его в LM Studio и пользуетесь ей как угодно. Точнее, настолько, насколько позволит мощность вашего компьютера. Есть русский интерфейс, а некоторые модели даже поддерживают русский язык.

Что необходимо для LM Studio

Для начала:

1. Заходим на сайт LM Studio (может не открываться из РФ, версию для Mac выложу в наш канал Telegram).

2. Скачиваем программу для своей ОС.

3. Устанавливаем, открываем.

Запустить LM Studio и установить самого простенького ИИ-чатбота можно даже на базовом Mac с чипом M1 и 8 ГБ оперативной памяти. Однако для оптимальной скорости работы и лучшего запоминания истории переписки рекомендуется использовать модели 16 ГБ RAM и до… бесконечности.

С ПК ситуация другая из-за того, что в ёмкости «оперативки» их владельцы ограничены куда меньше. Здесь комфортное использование действительно полезных ботов потребует либо видеокарту от Nvidia с хотя бы 8 ГБ собственной памяти, либо как можно больше самой обычной «оперативки». Воистину, LM Studio способна загрузить хоть 100, хоть 500 ГБ оперативной памяти – всё зависит лишь от степени продвинутости и требовательности конкретной «нейросети».

Как установить модель: в LM Studio нажмите на иконку Discover (лупа в левом углу экрана) и выберите любой из предложенных популярных вариантов. Вы также можете вставить адрес любой другой LLM-модели с сайта Hugginface в строку поиска загрузчика.

Остановимся на 5 хороших и массово полезных моделях, которые помогут решать разные задачи на Mac и ПК базовых и средних по мощности конфигураций.

1. phi-4

Новинка от Microsoft, выпущена в декабре 2024 года. Создана благодаря коллаборации с разработчиками OpenAI и ChatGPT. Её цель – добиться максимально высокого качества ответов при минимальном весе модели.

Сильные стороны – математические задачи и вычисления в целом. Разрешено использование в коммерческих целях. Требует не менее 12 ГБ оперативной памяти.

🤖 Эта модель на Hugginface

2. Qwen2.5 Coder

Популярная модель для программистов, заточенная под генерацию, анализ и дебаг кода. Одна из лучших среди открытых LLM, её постоянно хвалят и рекомендуют на форумах.

Хороша в том числе тем, что имеет огромное количество модификаций: самая простая, Qwen2.5 Coder 3B, запустится даже на ПК с 6 ГБ оперативной памяти. А продвинутая, Qwen2.5 Coder 32B, потребует около 24 ГБ RAM.

🤖 Эта модель на Hugginface

3. Llama 3.2 3B Instruct 4bit

Одна из самых маленьких моделей. Способна запуститься и быстро работать на практически любом ПК и абсолютно любом Mac с процессором M1 и новее.

Подходит для того, чтобы задавать общие вопросы и давать ей простые задачи. Идеальна в качестве начальной модели для ознакомления с возможностями (и типичными ограничениями) локальных LLM-чатботов. Требует всего 4 ГБ оперативной памяти.

🤖 Эта модель на Hugginface

4. NemoMix Unleashed 12B или ArliAI RPMax 12B

Две крайне эффективные «игровые» модели для широкого спектра запросов. Подходят для RP, общения на широкие темы, ответов на вопросы и просто развлечений. У обеих гигантский запас по максимальной памяти истории переписки внутри чата: более 100 тысяч токенов у каждой.

Эффективная работа обеих моделей потребует не менее 12 ГБ видеопамяти или RAM, а при установке ёмкости памяти выше 12 тысяч токенов на переписку рекомендуется железо не слабее RTX 3080/M4 Pro.

🤖 NemoMix Unleashed 12B на Hugginface
🤖 ArliAI RPMax 12B на Hugginface

5. NeuralDaredevil 8B Abliterated

Одна из наиболее быстрых среди моделей широкого спектра. Скорость и качество генерации ответов в рамках лимита в 4 тысячи токенов даст фору большинству вышеназванных моделей. Рекомендуется для ответов общего формата.

Неплохо работает с запросами и ответами на русском языке. Хорошо функционирует на системах с 12 ГБ оперативной памяти и более.

🤖 Эта модель на Hugginface

P.S. LLM-моделей уже более двух сотен, и все невозможно протестировать как следует. Если вы уже используете LM Studio, порекомендуйте свои любимые модели в комментариях.

1 Звезд2 Звезды3 Звезды4 Звезды5 Звезд (17 голосов, общий рейтинг: 4.82 из 5)
undefined
iPhones.ru
Нам ограничивают доступы к западным нейросетям, вроде ChatGPT. Что ж, скачаем сами аналог и будем использовать с собственного компьютера. Прогресс развития нейросетей, особенно открытых и отделённых от мира коммерции, не остановить. Зачем платить кому-то или отдавать свои переписки в интернет непонятно кому, если можно иметь своего собственного нейросетевого чатбота? Ранее я рассказывал про LM Studio...

Войди и оставь комментарий

Или войди с помощью

<- Назад Забыли пароль? Войти

14 комментариев

Форум →
  1. v
    verge
    9 января в 16:13
    0

    не скам?

    Войди на сайт, чтобы ответить
    Ответить
  2. D
    Dmitry 🎄
    9 января в 16:32
    0

    Так ChatGPT для Мас тоже бесплатный, единственный минус, работает только через VPN.

    BodyDoc avatar
    BodyDoc9 января в 19:16
    0

    И входной билет только для М-процессоров 🤷🏼‍♂️✌️

    scream13 avatar
    scream1310 января в 12:21
    0

     что мешает использовать веб-версию?

    Войди на сайт, чтобы ответить
    Ответить
  3. notolduser avatar
    notolduser 9 января в 23:55
    2

    Ну в сравнение с chat gpt все эти модели дно днищенское. 

    Войди на сайт, чтобы ответить
    Ответить
  4. А
    Александр Строков
    10 января в 10:05
    0

    Хочется погонять

    Войди на сайт, чтобы ответить
    Ответить
  5. P
    P S
    10 января в 10:40
    1

    для мак ещё можно использовать https://jan.ai/

    bla-bla-bla avatar
    bla-bla-bla11 января в 11:47
    0

    спасибо

    а то этот LM Studio только под M-процессоры
    хотя для винды есть и x86
    уроды, что сказать

    sllazarev avatar
    sllazarev12 января в 2:34
    0

    А еще есть gpt4all и Ollama и многое другое. Вопрос предпочтений.

    Войди на сайт, чтобы ответить
    Ответить
  6. Reuel avatar
    Reuel 10 января в 12:33
    1

    Недавно вышла новая китайская модель DeepSeek 3 – хорошая, на уровне ChatGPT 4o, Рекомендованное железо для локального запуска – 8 x NVIDIA H200. Посчитайте стоимость ))

    Никита Горяинов avatar
    Никита Горяинов10 января в 12:52
    0

    DeepSeek 3 крутой, но его объективно жёстко запускать локально. Проблема не в требованиях к видеожелезке, ибо это космос изначально, а даже с вариантом гонять из RAM. На Q4 ему очень желательно 512 ГБ, то есть все M-маки сразу идут гулять. А на ПК-сервере раскатывать если, то народные «зевоны» не прокатят, ибо на DDR3 ничего толкового не выйдет по скорости токенизации. Хороший сервер, который хотя бы базово потянет эту задачу, сейчас не видел дешевле 600к

    Reuel avatar
    Reuel10 января в 13:37
    0

    512 мало, более 1Тб нужно GPU памяти. 8 H200 это 1,12 Тб. Тут советуют не менее 1,3: *https://github.com/NVIDIA/TensorRT-LLM/tree/deepseek/examples/deepseek_v3″ Никакой сервер за 600к это не потянет.

    Никита Горяинов avatar
    Никита Горяинов10 января в 19:34
    0

    Вы про обычную, а я про квантованную версию. Понятное дело, что обычную вообще нецелесообразно дома разворачивать.

    Войди на сайт, чтобы ответить
    Ответить
  7. iphonys avatar
    iphonys 12 января в 17:36
    0

    Перплексети, из рф без впн и бесплатно

    Войди на сайт, чтобы ответить
    Ответить
Помни о правилах — если начал оффтопить, то не удивляйся потом.

Нашли орфографическую ошибку в новости?

Выделите ее мышью и нажмите Ctrl+Enter.