Описание

Invoke - Local LLM Client
Note: This app is intended for users who are able to set up a local LLM server (Ollama or LM Studio) within their own LAN environment. Some technical setup is required.

Chat with your local LLM! Seamlessly connect to Ollama or LM Studio for a fully offline, privacy-focused AI chat experience!

This iOS app connects to a locally hosted Large Language Model (LLM) server and enables seamless, natural conversations.
Compatible with Ollama and LM Studio via HTTP, it provides real-time message streaming and intuitive chat history management.
The app operates entirely within a local network—no internet connection required—making it ideal for those who prioritize privacy and security.

Key Features:
- Easy connection to local LLM servers (Ollama / LM Studio)
- Natural chat UI with bubble-style layout
- Auto-saving and browsing chat history
- Server and model selection via settings screen
- Supports Dark Mode
ещё ↓

Что нового

  • Версия: 1.1.1
  • Обновлено:
  • - performance improvements
    - usability improvements
    - bug fixes

Цена

  • Сегодня: Бесплатно
  • Минимум: Бесплатно
  • Максимум: Бесплатно
Отслеживайте цены

Разработчик

Очки

0 ☹️

Рейтинги

0 ☹️

Списки

0 ☹️

Отзывы

Ваш отзыв будет первым 🌟

Дополнительная информация

Invoke - Local LLM ClientInvoke - Local LLM Client Короткий URL: Скопировано!
  • 🌟 Поделиться
  • App Store

Вам также могут понравиться

Вам также могут понравиться

Поисковые операторы в AppAgg
Добавить в AppAgg
AppAgg
Начните использовать AppAgg. Это бесплатно!
Регистрация
Войти