
Jaki los czeka data scientistów?
Data Science od kilku lat przeżywa nieustający rozkwit. Dzisiejsze media wieszczą specjalistom od ML świetlaną przyszłość. Czy tak się jednak stanie?
Data Science od kilku lat przeżywa nieustający rozkwit. Dzisiejsze media wieszczą specjalistom od ML świetlaną przyszłość. Czy tak się jednak stanie?
Część algorytmów uczenia maszynowego wymaga, by z góry podać docelową liczbę grup. Jak zatem dokonać w sposób obiektywny najlepszego wyboru?
Czy wynik algorytmu działającego „bez nadzoru” można ocenić? I czy „bez nadzoru” zawsze oznacza: bez miary jakości?
Praca przy grupowaniu rozpoczyna się tak naprawdę już na etapie przygotowywania zbioru. Podczas selekcji zmiennych warto wiedzieć jak mierzyć ich wpływ na potencjał naszej ABT.
W poprzednim wpisie na temat grupowania gęstościowego skupiłem się na omówieniu podstawowych pojęć i teoretycznym wprowadzeniu. Dziś kolej na część praktyczną. Zapraszam! 🙂
Dziś rozpoczynam omawianie algorytmów grupowania gęstościowego. Jako przykładem posłużę się DBSCAN-em – ich podaj najpopularniejszym reprezentantem.
Postanowiłem zrobić mały eksperyment i porównać działanie dwóch algorytmów na tym samym zbiorze. Czy k-średnich poradzi sobie lepiej ze zmiennymi ciągłymi, niz k-modes z kategoryzowanymi […]
Ostatni, najbardziej zaawansowany z algorytmów iteracyjno-optymalizacyjnych, który opisuję na blogu. K-prototypów, bo o nim mowa pozwala na grupowanie mieszanego zbioru składającego się ze zmiennych kategorycznych […]
Gdy zbiór zawiera zmienne numeryczne mamy do wyboru całą gamę algorytmów grupujących. Całość się nieco komplikuje, gdy w grę wchodzą zmienne kategoryczne. W tej sytuacji […]
W poprzednich wpisach omawiałem algorytm k-średnich. Dziś przedstawiam kolejnego przedstawiciela grupy algorytmów iteracyjno-optymalizacyjnych, który jest świetną alternatywą dla popularnego k-meansa.
Copyright © 2016 - 2025 MG Mateusz Grzyb | Strona używa plików cookies. Kontynuowanie przeglądania oznacza zgodę na ich użycie. | Polityka prywatności | Regulamin szkolenia