Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Benchmarki dla LLM #54

Open
9 tasks
Kleczyk opened this issue Dec 1, 2023 · 0 comments
Open
9 tasks

Benchmarki dla LLM #54

Kleczyk opened this issue Dec 1, 2023 · 0 comments

Comments

@Kleczyk
Copy link
Contributor

Kleczyk commented Dec 1, 2023

Jaki jest cel tego tego zadania

Celem tego zadania jest opracowanie całej logiki przeprowadzania benchmarków, przygotowanie wskaźników określających jakość modeli oraz przygotowanie datasetów dla poszczególnych benchmarków tak aby było to łatow rozszerzalne.

Jak wygląda rozwiązanie?

Rozwiązanie obejmuje stworzenie infrastruktury, w której łatwo można dodawać nowe modele językowe, benchmarki oraz łatwo uruchamiać je na serwerze.

TODO

  • Baza danych sqlite
  • Benchmark Filtrujący Słabe Modele
  • Benchmark Ilościowy w JP (Języku Polskim)
  • Benchmark Dialogowy
  • Benchmark Matematyczny
  • Benchmark Programowania
  • Benchmark Wyciągania Danych z Źródła Dokumentu
  • Benchmark z Niepoprawnymi Danymi i Błędami w Pisowni
  • Benchmark Dotyczący Bezstronności i Etyki

Dodatkowe linki

@Kleczyk Kleczyk added this to the v0.1 milestone Dec 1, 2023
@Kleczyk Kleczyk self-assigned this Dec 1, 2023
@TheJimmyNowak TheJimmyNowak removed this from the v0.1 milestone Dec 4, 2023
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Projects
None yet
Development

No branches or pull requests

3 participants