Что такое Meta-Harness?
Фреймворк для автоматического поиска оптимального кода-обвязки вокруг ИИ-модели для конкретной задачи.
Исследовательский проект от Stanford IRIS Lab, представляющий фреймворк для end-to-end оптимизации harnesses — кода, который окружает фиксированную базовую модель. Содержит фреймворк и два референсных эксперимента из статьи. Позволяет автоматически искать...
Для исследователей ИИ и продвинутых разработчиков, которые хотят автоматизировать поиск лучших стратегий использования LLM для своих задач.
При использовании больших языковых моделей часто приходится вручную писать сложную обвязку (harness) — код, который решает, что сохранять, извлекать и показывать модели. Это требует много экспериментов и времени.
Meta-Harness — это фреймворк для автоматического поиска по пространству task-specific harnesses. Он использует LLM-агента (например, Claude Code) для генерации кандидатов и автоматически оценивает их на ваших данных. Включает готовые примеры для классификации текста и Terminal-Bench 2.0.
Исследовательский проект от Stanford IRIS Lab, представляющий фреймворк для end-to-end оптимизации harnesses — кода, который окружает фиксированную базовую модель. Содержит фреймворк и два референсных эксперимента из статьи. Позволяет автоматически искать лучшие стратегии работы с моделью для конкретной задачи.
Эксперимент с Terminal-Bench 2 на полном датасете из 89 задач с Opus 4.6 стоит около $500 за одну итерацию поиска и занимает 4-6 часов.
Стоит пробовать только исследователям ИИ и опытным разработчикам — это сырой исследовательский код, а не production-ready библиотека. Авторы прямо предупреждают, что код только проверен на запуск, но не тестировался глубоко.
Проект свежий (2026 год), но это именно research code — авторы честно предупреждают, что код только проверен на запуск, но не тестировался глубоко.
Карточка собрана по данным GitHub, README и структуре репозитория. Это не официальная документация проекта.
Фреймворк для автоматического поиска оптимального кода-обвязки вокруг ИИ-модели для конкретной задачи.
Для исследователей ИИ и продвинутых разработчиков, которые экспериментируют с оптимизацией работы LLM-моделей.
Если проект подходит под ваш сценарий, можем помочь с установкой, интеграцией, доработкой или аккуратным форком под вашу инфраструктуру.