wow! nie spodziewałem się zobaczyć materiałów z shiny, super! Liczę na jak najwięcej materiałów z tego tematu, wielkie dzieki za to co robisz. Generalnie dobrze byłoby poznać różne techniki prezentowania wyników za pomocą R jak np. Quarto czy przedstawienie pakietów jak 'gt' do tworzenia tabel
Dziękuję. Tworzenie aplikacji z shiny to spory krok do przodu dla każdego użytkownika R. Przede wszystkim jest to wiedza o dużej wartości praktycznej. Pozdrawiam
Ja się zajmuję nauką. Korzystam z R głównie do analizy danych empirycznych w celach naukowych. Sam pakiet dplyr jest popularny - ułatwia przetwarzanie danych. Operator pipe sprawia, że kod staje się bardziej czytelny. Pozdrawiam
Chciałbym podzielić się kilkoma refleksjami na temat Twojego kanału na RU-vid. Jestem osobą związana zawodowo z farmacją, wyrobami medycznymi i badaniami klinicznymi. W Twoich filmach znalazłem wiele ciekawych informacji, które mogę wykorzystać w mojej pracy naukowej. Cenię Twoją zdolność do jasnego wyjaśniania skomplikowanych zagadnień i merytoryczną jakość Twoich materiałów. Dziękuję Ci, że dzielisz się swoją wiedzą i udostępniasz te treści. Uważam, że Twój kanał jest prawdziwą perłą w zakresie nauki analizy danych w polskim internecie. Z niecierpliwością oczekuję na nowe odcinki i życzę powodzenia w dalszym tworzeniu. 😊
Dziękuję bardzo za te miłe słowa. Cieszę się, że osoby reprezentujące różne nauki empiryczne są zainteresowane moimi materiałami. Jednym z moich celów jest prezentowanie materiału w taki sposób, aby wspierać widza w jego pracy naukowej (pisaniu artykułów, książek, prac dyplomowych). Pozdrawiam
super wytłumaczone, dziękuję! Ps. Obecnie plik "storm" zawiera ponad 19000 próbek i dużo więcej typów wiatru. Fajnie to wygląda na wykresie ze statusem.
błąd standardowy średniej * wartość z tablicy dla rozkładu normalnego lub t studenta (dla określonego poziomu ufności np. 0.95 lub 0.99). Dla poziomu ufności 0.95 i "dużej" próby wartość ta wynosi 1.96 Zatem upraszczając temat błąd standardowy średniej * 1.96
Dziękuję. Braki danych przetwarza się często "automatycznie" za pomocą właściwych algorytmów. To zagadnienie omawiam na kanale w serii poświęconej maszynowemu uczeniu. Pozdrawiam
Sprawdziłem - faktycznie wymagany jest tu operator przypisania <-. Dzięki temu kod jest bardziej czytelny. Gdyby działało = można byłoby pomyśleć, że to jest określenie jakiegoś argumentu w funkcji. Pozdrawiam
Ten kurs jest lepszy niż dostępne polskie książki z R. Dobry nauczyciel rozumie, że uczeń zawsze nic nie wie o niczym. I to niezależnie od tytułów naukowych. I to mi się podoba. Sam też tak piszę publikacje to rozumiejąc. Podsumowując zapewne niezrozumiały wywód - szkolenie rewelacja 🙂
Dziękuję za miłe słowa. Taką problematykę (analizę danych w języku programowania) łatwiej wyłożyć na nagraniu, niż w książce. Książki rządzą się swoimi prawami. Pozdrawiam.
W teście Kołmogorowa-Smirnowa wyskakuje mi komunikat, że wartości powtórzone nie powinny być obecne w teście Kolmogorowa-Smirnowa. Rozumiem, że muszą to być tylko wartości unikalne?
Tak. Pojawia się takie ostrzeżenie. Błędem byłoby tu usunięcie duplikatów - to by zmieniało nasz testowany rozkład empiryczny. Sensowne wydaje mi się natomiast dodanie do duplikatów bardzo małej liczby losowej (to sprawi, że dla testu będą się one różnić). np. z przedziału -0.0001; +0.0001 (chyba, że sama zmienna przyjmuje bardzo małe wartości - wtedy wartość losowa powinna być jeszcze mniejsza). Osobiście zalecałbym jednak wykorzystanie wykresu Q-Q + Shapiro-Wilk Normality Test. Test Shapiro Wilka został zmodyfikowany tak, że teraz (wersja z R funkcja shapiro.test()) można go stosować także do dużych prób (3 - 5000). Jeśli ma Pan/Pani próbę większą niż 5000 - to polecam ocenę wzrokową w oparciu o stosowne wykresy. Pozdrawiam
Mam ten sam problem co @quegon6125 @@zArkadiuszem rozumiem, że skoro u Pana ten test dziala, to Pan ma zmodyfikowany plik? Może Pan go gdzieś udostępnić? Chętnie bym poćwiczyła. Podobny komunikat wyskakiwał mi, gdy próbowałam test Wilcoxona i pojawiały się powtórzone wartości. Czy R nie jest odporny na takie sytuacje (dla przykładu LabVIEW nie ma z tym problemu)? Jeśli tak, to jest to jego bardzo poważne ograniczenie, bo jeśli chcemy zautomatyzować pracę, to ciężko nam zakładać brak powtórzeń, a ocena wzrokowa nie jest oceną obiektywną i nie daje się zautomatyzować. Ręczne wyszukiwanie tych samych próbek i modyfikacji ich wartości w zbiorze bardzo dużych danych nie wchodzi w rachubę.
R to w znacznej mierze zbiór pakietów - jeśli coś można poprawić - zasadne jest dodanie (stworzenie) nowego pakietu. R rozwija się właśnie przez taką pracę ludzi zainteresowanych tematem. Tu powtórzę wcześniejszą sugestię: "Osobiście zalecałbym jednak wykorzystanie wykresu Q-Q + Shapiro-Wilk Normality Test". @@acha10000
Świetny kanał, wszystko przystepnie wytłumaczone. Po prostu podręcznik do R i statystyki. Obejrzalem wszystko. A teraz mam zamiar jszcze raz obejrzeć i utrwalić sobie A może udałoby się zdobyć skrypty ze wszystkich lekcji? tak żeby przyspieszyć powtarzanie, bo jednak na zatrzymywaniu lekcji i przepisywaniu kodu trochę się schodzi😢
@zArkadiuszem o fajnie z chęcią uproszczę sobie nauką (ale pewniej szybciej niż ukażą się materiały to sobie powtórzę przepisując z filmików) choć uważam, że pierwszorazowe korzystanie z kursu powinno odbywać się poprzez przepisywanie do R komend z filmików - więcej zostaje w głowie. Dzięki tym filmikom (choć wcześniej przejrzałem ze 2 książki o R) już chyba przeszedłem ze Statistici na R,. Dzięki R mogę bardziej kontrolować dane, przeprowadzane analizy i wygląd wykresów., no może tylko opracowanie wyglądu tabel w R (a przynajmniej w pakiecie Crosstable) jest zbyt czasochłonne (więc tu pozostanę przy Excell'u). Pozdrawiam. Świetna robota.
Szkoda, że nie można regularnie subskrybować, a tylko raz. Mam ochotę zasubskrybować za każdym razem, jak wpadam na ten kanał. Kocham te filmy. Dzięki wielkie!
@@zArkadiuszem to chyba dosyć niszowe zagadnienia po prostu. Nie znam innych podobnych kanałów, żeby porównać zainteresowanie. W każdym razie mam nadzieję, że będziesz kontynuować, bo złoto! 🥇
W R korzystamy często z tzw. wektoryzacji (funkcje "automatycznie" odwołują się do kolejnych elementów np. danej kolumny w ramce danych). Dzięki temu pętle zwykle się pomija. Ale zawsze lepiej je znać, niż nie znać - stąd ten materiał.
hej, czy mógłbyś pokazać i wytłumaczyć bardziej zaawansowane modele np. gee i trudniejsze? Super, że będzie ML! PS. polecisz jakieś dodatkowe materiały do nauki?