Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

[Feature Request] Support for OpenAI ChatCompletion models #10

Open
kristaller486 opened this issue Jan 30, 2024 · 2 comments
Open

[Feature Request] Support for OpenAI ChatCompletion models #10

kristaller486 opened this issue Jan 30, 2024 · 2 comments
Labels
enhancement New feature or request good first issue Good for newcomers

Comments

@kristaller486
Copy link

  • Поддерживается в оригинальной lm-evaluation-harness.
  • Позволяет тестировать неограниченный пул моделей через инструменты вроде vllm/llama.cpp-server/text-generation-webui/etc.
  • Настройка формата подсказки на стороне сервера.
  • Можно разделить машину для инференса и тестирования.
  • Можно тестировать проприетарные модели с openai-like api (например, mistral-medium).
@LSinev LSinev changed the title Support for OpenAI ChatCompletion models [Feature Request] Support for OpenAI ChatCompletion models Jan 30, 2024
@LSinev LSinev added the enhancement New feature or request label Jan 30, 2024
@LSinev
Copy link
Collaborator

LSinev commented Jan 30, 2024

Связано с #5
на текущий момент, OpenAI ChatCompletion не поддерживают задачи, где нужны логиты. Но в lm-evaluation-harness работают над этим

@LSinev
Copy link
Collaborator

LSinev commented Jun 7, 2024

В ветке https://github.com/ai-forever/MERA/tree/update/new_harness_codebase с новым кодом lm-evaluation-harness (подключен сабмодулем из репозитория где уже внедрен не принятый пока в lm-evaluation-harness код для работы rutie таски) и переделанными тасками в yaml формате завели можете попробовать воспользоваться тем, что запрашивали. Также в порядке проб/экспериментов заведены *_gen таски вместо multiple_choice, чтобы можно было обходиться без логитов для оценки. Собрать такой сабмит, чтобы посмотреть приватным образом скор на сайте MERA, можете с использованием шелл скрипта https://github.com/ai-forever/MERA/blob/update/new_harness_codebase/scripts/run_benchmark_gen.sh по аналогии с инструкцией для обычного случая: https://github.com/ai-forever/MERA/blob/update/new_harness_codebase/MODEL_SCORING.md#running-hf-models

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
enhancement New feature or request good first issue Good for newcomers
Projects
None yet
Development

No branches or pull requests

2 participants