Naukowcy zajmują się regresją LLM

13 lutego 2026 r. Naukowcy zajmują się regresją LLM.  Naukowcy z MIT, Improbable AI Lab i ETH Zurich zaproponowali metodę dostrajania, która ma rozwiązać problem katastrofalnego zapominania w dużych modelach językowych. Problem ten często powoduje, że modele tracą wcześniejsze umiejętności podczas szkolenia w zakresie nowych zadań. Technika ta, zwana precyzyjnym dostrajaniem samodestylacji, pozwala modelowi pełnić rolę zarówno nauczyciela, jak i ucznia podczas szkolenia. W eksperymentach przeprowadzonych w Cambridge i Zurychu podejście to pozwoliło zachować wcześniejsze umiejętności, jednocześnie poprawiając dokładność wykonywania nowych zadań.  Proponowana metoda wymaga jednak około 2,5 razy większej mocy obliczeniowej niż standardowe dostrajanie nadzorowane. Analitycy zauważają, że wdrożenie w świecie rzeczywistym będzie zależało od kontroli zarządzania, kosztów szkolenia i przydatności dla branż podlegających regulacjom.  Więcej informacji TUTAJ