#

ollama

Платформа для локальных AI-моделей

ПрограммированиеНастройка кастомных API-эндпоинтов в AI Assistant PhpStorm

Инструкция по подключению Ollama и других AI-сервисов в PhpStorm AI Assistant для обхода ограничений OpenAI Codex.

7 ответов 5 просмотров
DevOpsПодключение Ollama Python API к удаленному серверу в LAN

Пошаговая инструкция по настройке ollama python api для удаленного ollama сервер в LAN. Решение проблем с ollama timeout, ollama use gpu для llama3.2-vision:11b и обработкой изображений ollama vision через base64.

7 ответов 6 просмотров
ЖелезоЛучшие SLM-модели ИИ для видеокарты с 8 ГБ VRAM

Обзор лучших Small Language Models для локального запуска на видеокартах с 8 ГБ видеопамяти. Рекомендации по выбору и настройке моделей через Ollama.

5 ответов 2 просмотра
ПрограммированиеОшибка invalid input type в createHistoryAwareRetriever LangChain.js Ollama

Исправление ошибки 'invalid input type' при использовании createHistoryAwareRetriever в LangChain.js с Ollama embeddings. Пошаговый разбор промпта, настройка conversational RAG, пример рабочего кода и альтернативы для работы с историей чата.

5 ответов 2 просмотра
ЖелезоRTX 3060 12 ГБ или RTX 5060 8 ГБ для бюджетного AI?

Сравнение RTX 3060 12 ГБ и RTX 5060 8 ГБ для Ollama и нейросетей: VRAM, fine-tuning, inference, цены. Почему 12 ГБ лучше для начинающих в AI — обзор производительности и рекомендаций.

1 ответ 7 просмотров