Metadata-Version: 2.4
Name: llm-schema-lock
Version: 0.1.3
Summary: Fix broken JSON from Ollama, llama.cpp, vLLM. Auto-repair and offline validation.
License: MIT
Project-URL: Homepage, https://pypi.org/project/llm-schema-lock/
Keywords: llm,json,ollama,validation,repair,schema,offline
Classifier: Development Status :: 4 - Beta
Classifier: Intended Audience :: Developers
Classifier: License :: OSI Approved :: MIT License
Classifier: Programming Language :: Python :: 3
Classifier: Programming Language :: Python :: 3.9
Classifier: Programming Language :: Python :: 3.10
Classifier: Programming Language :: Python :: 3.11
Classifier: Topic :: Software Development :: Libraries :: Python Modules
Requires-Python: >=3.9
Description-Content-Type: text/markdown
License-File: license.dat
Requires-Dist: jsonschema>=4.17.0
Requires-Dist: cryptography>=41.0.0
Dynamic: license-file

# llm-schema-lock

**Проблема:** Ollama, llama.cpp и другие локальные LLM ломают JSON-схему (лишние запятые, одинарные кавычки, markdown). Парсеры падают, приходится дебажить часами.

**Решение:** Автоматическая починка битого JSON + валидация по схеме. Работает оффлайн, без интернета.

## ⚡ Установка

```bash
pip install llm-schema-lock

from llm_schema_lock import validate_and_fix

schema = {
    "type": "object",
    "properties": {
        "answer": {"type": "string"},
        "confidence": {"type": "number", "minimum": 0, "maximum": 1}
    },
    "required": ["answer", "confidence"]
}

bad_json = '```json\n{"answer": \'Готово\', "confidence": 0.95,}\n```'

result = validate_and_fix(bad_json, schema)
print(result)
# ✅ Вывод: {'answer': 'Готово', 'confidence': 0.95}
# JSON почищен и проверен по схеме!

Что чинит пакет:
✅ Markdown-обёртки (json ...)
✅ Одинарные кавычки → двойные
✅ Лишние запятые в конце
✅ Пропущенные кавычки
✅ Несоответствие схеме
✅ Работает с Ollama, llama.cpp, vLLM, GPT4All

 Pro-версия (1 990 ₽/мес или 14 900 ₽ навсегда)
Что даёт:
🔐 Оффлайн-лицензия (работает без интернета)
⚡ Кэширование запросов (экономия 30-60% вызовов LLM)
📊 Аудит-логи (кто, когда, какой запрос)
🎯 Приоритетная поддержка

Как купить:
1.Получи ID компьютера: python -c "from llm_schema_lock._license import check_license; print(check_license()['machine_id'])"
2.Переведи по СБП: +7-952-635-10-55 (ВТБ)
3.В комментарии: lic:ТВОЙ_ID
4.Скинь чек в Telegram: @iLL1cc
5.Получишь license.dat в течение 15 минут

Для кого этот пакет
1.Разработчики локальных LLM (Ollama, llama.cpp, vLLM)
2.Интеграторы (нужен стабильный JSON от моделей)
3.Компании с комплаенсом (оффлайн-работа, аудит-логи)
4.Инди-разработчики (хотят сэкономить на API)

 Ключевые слова для поиска:
ollama json ошибка, fix llm json output, llama.cpp json validation,
vLLM structured output, local llm json repair, python json schema validator,
автоматическая починка json, оффлайн валидация json

Лицензия:
MIT. Коммерческое использование требует Pro-ключа.
