Forum strony www.multipasko.pl [Regulamin]


Dodaj wpis w tym temacie
Spis tematów
Login:

Hasło:
Strona: 1 2 3 4
Wyślij wiadomość do admina

Przewiń wpisy ↓

sieci neuronowe i gry losowe

2025-01-03 (17:24)

status Walter777
Data rejestracji: 2024-09-08
Ilość postów: 177

16748
wpis nr 1 545 716
[ CZCIONKA MONOSPACE ]

zdjęcie
Do poczytania..

--- wpis edytowano 2025-01-03 17:26 ---

2025-01-03 (20:52)

status Mariusz
Data rejestracji: 2003-09-02
Ilość postów: 4318

22
wpis nr 1 545 748
[ CZCIONKA MONOSPACE ]

Wiedzy nigdy dość . Warto przeczytać .
Pozdrawiam
2025-02-04 (22:27)

status Marriusz2
Data rejestracji: 2009-06-02
Ilość postów: 2512

4670
wpis nr 1 551 400
[ CZCIONKA MONOSPACE ]

Sukces w Sieciach neuronowych i ogólnie AI ..
================================

Każda sieć neuronowa świetnie uczy się na pamięć .
I zapamięta niewiarygodne ilości liczb .
Jeżeli chcemy aby SN nie uczyła się na pamięć a uczyła się wiedzy - a to wielka różnica musimy tak zaprojektować sieć by SN myślała

W dziedzinie SN nazywamy to zjawisko generalizacją czyli umiejętnością postrzegania.
Obecnie ta dziedzina ,która zajmuje się tego typu tematami nazywa się cognitywistyką.
Pasjonujaca wiedza .
Jakie są metody nie pozwalające na uczenie się SN na pamięć .?
Te metody dzielimy na techniczne i mentalne .

Z metod technicznych można wymienić niewłaściwy dobór ilości i neuronów i warstw .Zasada jest prosta . Im bardziej skomplikowna topologia SN tym większa skłonność uczenia się SN na pamięć .
Większość bo 90 % czatów i innych wynalazków to tak zwane storage wiedzy a nie myśląca sieć SN .
Każdy operator SN zna tę przypadłość .To podstwa.Nie dopuścić do uczenia się na pamięć .


cdn...



--- wpis edytowano 2025-02-04 22:29 ---

2025-02-09 (11:00)

status heme24
Data rejestracji: 2015-12-08
Ilość postów: 329

14639
wpis nr 1 552 083
[ CZCIONKA MONOSPACE ]

Witam.

Mariusz może zamiast liczb podać sieci czas wypadania? co o tym sądzisz?
2025-02-11 (15:26)

status Marriusz2
Data rejestracji: 2009-06-02
Ilość postów: 2512

4670
wpis nr 1 552 384
[ CZCIONKA MONOSPACE ]

Jest tyle tematów w dziedzinie Sztucznej Inteligencji ,że na Forum nie da się .

Jest taki temat ,który się nazywa:

Struktura danych wejściowych .

Mamy dwa typy danych . Jedne nazywają się rozkładem jednostajnym dyskretnym .

Od razu dlaczego rozkłąd dyskretny .

A no dlatego ,że w kostce sześciościennej nie ma 5,12676 a jest tylko: 1,2,3,4,5,6,

A jednostajny to taki gdzie prawdopodobieństwo kazdego elementu dykretnego jest takie samo .

Zobaczmy dlaczego czasy oczekiwania na wypadnięcie nie nadają się do jakiejkolwiek obróbki numerycznej .

A no dlatego ,że rozkłąd wielomianowy ma dziwne tak zwane dane odstające .
Jakie to są dane odstające

w rzucie kostką to na p[rzykład czas oczekiwania 32 rzuty
albo czas oczekiwania na wypadnięcie 28 rzutów

I tak dalej

Takie dane odstające nie nadają się do analizy a do sieci neuronowych w ogóle .
Czyli są niepotrzebne i jako niepotrzebne zostają odrzucone .

Jak ,że ogólne prawo rozkłądu danych do jakiejkolwiek obróbki numerycznej

Dane wejściowe nie moga być dziwne , czyli mieć dziwnych niespotykanych rozkąłdów .
Takie dane nie pozwalają na wyciągnięcie jakichkolwiek wniosków .

Tyk modelu : Długość życia nie podejmuje danej ,że znaleziono człowieka ,który ma 116 lat .
Takie dane nazywamy wyjątkiem -to w mowie potocznej .
A w mowie SI danymi odstającymi .
I takich danych nie wolno dostarczać sieciom neuronowym i wszystkim innym typom SI .
2025-03-21 (20:53)

status Marriusz2
Data rejestracji: 2009-06-02
Ilość postów: 2512

4670
wpis nr 1 558 608
[ CZCIONKA MONOSPACE ]

Współczesność AI
====================
Trochę o współczesności metod AI w obecnych czasach .

Skupimy się na Metodach AI opartych o Sieci Neuronowe .
Inne metody są w Polsce niedostępne ani sprzętowo ani implementacją programową .

Mamy do dyspozycji dwa narzędzia w dziedzinie Sieci neuronowych .

Sieci neuronowe sprzętowe
Sieci neuronowe implementowane programowo czyli inaczej implementacje programowe .

Które z tych metod są lepsze ?

Otóż nie jest na to łatwa odpowiedź .

Dla potrzeb prywatnych zupełnie wystarczające są implementacje programowe.
Dzisiejesze komputery są wystarczająco szybkie aby takie programy odpalić .

Ba mało powiedziane :
Są za szybkie .

Od procesora Pientium 1 nie ma najmniejszej potrzeby zwiększać moc komputerów PC z prostej przyczyny : Nie ma oprogramowania , które by mogło wykorzystać takie komputery PC .

System operacyjny Windows XP był szczytowym osiągnięciem interface czyli międzymordzia komputerów PC .
Pozostałe jak Windows 10 czy 11 to zwykłe buble dla dzieciaków .Systemy te nie spełniają w ogóle wymagań aby mogły byc poważnymi SO dla komputerów PC .

Skupimy sie tedy na programach do sieci neuronowych oczywiście dostępnych na Windows XP , no bo na inne systemy operacyjne nic się nie pisze .
Problem Polski polega na blokadzie takiego oprogramowania dla POlski .
Polska nadaj jest postrzegana jest jako Kraj piracki i oprogramowanie takie jest na liście tak zwanych technologii zaawansowanych .

rozważymy co taki program musi zawierać ?

Oczywiście pomijamy wygłupy typu czatów i innych programów dla frajerów . To nie kazda grupa frajerów ale frajerów uzależnionnych od INternetu . Zasada jest prosta . Nikt poważny nie będzie się chwalił zwłaszcza w Internecie rozwiązaniami w dziedzinie AI . Na dzień dzisiejszy możemy Internet pominąć bo to są wygłupy dla dzieci . W dodatku 99 % tych wygłupów nie ma nic wspólnego z AI .Dzisiaj wystarczy dodać wyraz AI i tyle . 99 % tego to zwykłe oszustwo .

cdn ...


--- wpis edytowano 2025-03-21 21:09 ---

2025-07-22 (14:45)

status Marriusz2
Data rejestracji: 2009-06-02
Ilość postów: 2512

4670
wpis nr 1 573 056
[ CZCIONKA MONOSPACE ]

Musiałem główny temat dla graczy w gry losowe przenieść ,gdyż Trolle zamęcza się .

Najpierw trochę o standaryzcji neuronowej .
Wszystkie pliki są zapisywane w txt w separacji tabulatorem ale zdarza się też przecinkiem .
Pliki z ustawieniami sieci mają nazwy standardowe Siec1.net , Siec2.mlp
Wszystkie parametry zapisywane są w tym pliku .Praktycznie wszystkie programy AI mają jedną standaryzację .

Nas intersują tak zwane patterns .
Te z kolei zapisywane są w plikach tekstowych dane.dat
I tu jest najwięcej nieporozumień z sieciami neuronowymi .

Niezrozumienie co to jest patterns .
To jedna lekcja .

Przychodzi nauczyciel i mówi uczniom . Jak macie parametr 1,parametr,2,parametr,3......parametr 10

To te parametry są właściwe dla liczby 17 .

Liczbę 17 mizemy podać SN dwojako .
Bezpośrednio 17 -jednym neuronem .
Ale pamiętajmy film Mars i wtedy jak rozróżnić 15 od 17 od 18 .
Na filmie Mars jest opisane to zagadnienie

====================================
Dlaczego to takie ważne dla Sieci neuronowych i ich rozwoju wyjaaśnię .

Chodzi i historię rozwoju sieci neuronowych w Polsce .
Zaczęło sie od 2000 roku poprzez prace Pana Tadeusiewicza znanego populryzatora sieci neuronowych w Polsce.

Prace teoretyczne ruszyły w dwóch ośrodkach : AGH i UMK u prof . Ducha.

I Ale jedynym praktycznym systemem opartym o sieci neuronowe był system rozpoznawnia swój-obcy w 2006 roku w Toruniu.
Amerykanie w 2003 roku wpisali systemy SN n a listę Technologii Zaawansowaanych aaa to prakatycznie blokada przepływu rozwiązań nowoczesnych do Polski.
Świat oszalał i nic praaktycznie nie docierało do nas .
Giełda ,która pierwsza zastosowała SN jak program Neurosolutions dla nas to ceny astronomiczne.
===================================================
Nowoczesne rozwiązania jak klasa SN RTRN była w Polsce niedostępna .
A to klasa SN postrzegaajcych zjawiska w czasie co w klasie SN Backpropgtion jest niemozliwe.

...cdn

...cdn

--- wpis edytowano 2025-07-22 14:58 ---

2025-07-23 (02:09)

status Marriusz2
Data rejestracji: 2009-06-02
Ilość postów: 2512

4670
wpis nr 1 573 144
[ CZCIONKA MONOSPACE ]

Teraz omówmy tak zwane patterns po naszemu lekcje albo wzorce.

No i tu od razu w 90 % są to fałszywe wzorce .
Jeżeli podamy sieci w lekcji 209 ,że dla liczby 26 częstość wynosi np 136
a w lekcji 444 ,że dla liczby 26 częstość wynosi 187 to ..................
sieć zgłupieje .
Nic się nie nauczy .
To są fałszywe wzorce .
Nie da się .

pamiętajmy też ,że SN nie wie co jest po czym -bo skąd.
Każda lekcja to inna lekcja ale nie ma wektoru czasu .

Operatorom się wydaje ,że SN w jakiś cudowny sposób wiedza co jest po czym .
Nie wiedzą .

Nawet jedną z powszechnych opcji zapobieganiu uczenia się SN na pamięć jest tasowanie czyli Schuffling lekcji . Wiele programów ma schuffling wbudowany .

...cdn
2025-08-06 (19:31)

status Marriusz2
Data rejestracji: 2009-06-02
Ilość postów: 2512

4670
wpis nr 1 574 807
[ CZCIONKA MONOSPACE ]

Phenomena

=========================================

To tajemnicze słowo może zrozumieć tylko taki człowiek ,który chce wygrać w grę losową i podchodzi do sprawy poważnie . Musi także mieć wielką wyobraźnię .

Tacy ,którzy mają własne ugruntowane poglądy nie mają szans .

Phenomena to zjawisko mechanizmu liczb losowych .
Niestety to trzeba wymyśleć a nikt nie opisze Phenomena w internecie .

--------------------------------------------------------------------------------

W naszym przypadku Phenomena to zjawisko takie: jutrzejszy wynik zależy od poprzednich wyników .
Czyli wszystko odbywa się w czasie .

No i sieci neuronowe typu Backpropagation do tego się nie nadają .

W 1996 roku do POlski zaczęły docierać pierwsze sygnały o powstaniu nowej grupy sieci neuronowych .
Sieci rekurencyjnych .

Sieci typu Backpropagation charakteryzują się tym ,że sygnał przepływa tylko w jedną stronę:Od wejścia do wyjścia .

W sieciach rekurencyjnych stosuje się sprzężenie zwrotne między wyjściem a wejściem sieci .

Tak dzieje się właśnie w naszym mózgu .

Była to nowa epoka w dziedzinie sieci neuronowych .

MOżna zrobić taki rachunek :
w siecich Backpropagation hipotetyczna inteligencja to 100 w sieciach rekurencyjnych to 20.000 jednostek.

Dlaczego ?

W sieci mającej 20 neuronów może być tysiąc sprzężeń i to kilku rodzajów : jak symetrycznych i niesymetrycznych .

W 1996 roku otworzył się nowy świat ,
cdn..
2025-08-06 (21:26)

status Jan69
Data rejestracji: 2015-09-19
Ilość postów: 429

14527
wpis nr 1 574 810
[ CZCIONKA MONOSPACE ]

Mariusz, gdy czytam, co napisałeś ("W naszym przypadku Phenomena to zjawisko takie: jutrzejszy wynik zależy od poprzednich wyników. Czyli wszystko odbywa się w czasie") to z pewnymi zastrzeżeniami mogę Ci przytaknąć. Ale jak połączę to, co napisałeś, z wcześniejszym zdaniem ("Phenomena to zjawisko mechanizmu liczb losowych"), to oczywistą prawdą jaka mi się nasuwa jest Twoje stwierdzenie: "Niestety to trzeba wymyśleć a nikt nie opisze Phenomena w internecie". Tak, to trzeba wymyślić, żadnego naukowego artykułu w tym temacie (mam na myśli poważnych naukowców) nie znajdę.
A to faktycznie implikuje refleksję, że w zakresie TAKIEJ wiedzy jesteś guru, nikt Ci nie podskoczy
2025-08-06 (21:54)

status Lottonauta
Data rejestracji: 2012-09-03
Ilość postów: 3354

13559
wpis nr 1 574 816
[ CZCIONKA MONOSPACE ]

Mariusz,

> W naszym przypadku Phenomena to zjawisko takie: jutrzejszy wynik zależy od poprzednich wyników .

- tak to jest phenomena: wydaje ci się, że jutrzejszy wynik zależy od poprzednich wyników

--- wpis edytowano 2025-08-06 21:55 ---

2025-08-06 (23:01)

status Marriusz2
Data rejestracji: 2009-06-02
Ilość postów: 2512

4670
wpis nr 1 574 841
[ CZCIONKA MONOSPACE ]

Jan

No musiałbym być stuknięty gdybym opisywał mój system .
Jaki maiłbym w tym cel .
NIkt tego nie zrobi .
Ja ślizgam się jak mogę aby nic nie napisać konkretnego ale opisać wiedze jaką trzeba mieć .
Jak ktoś się bawi SN to musi mieć wiedzę a nie internetowe głupoty
2025-08-08 (16:55)

status brunet
Data rejestracji: 2023-04-24
Ilość postów: 7

16567
wpis nr 1 575 006
[ CZCIONKA MONOSPACE ]


Phenomena.

Zjawisko w rekurencyjnych sieciach neuronowych (RNN), szczególnie w kontekście shufflingu i rozpoznawania zależności czasowych. To nie jest błąd poznawczy jak w grach losowych, lecz mechanizm uczenia się sekwencji, gdzie sieć modeluje zależności między zdarzeniami w czasie.

W kontekście RNN, LSTM czy GRU, „phenomena” może odnosić się do:
1. Zależności czasowe (temporal dependencies). Sieci rekurencyjne uczą się, że obecny stan zależy od poprzednich stanów. To kluczowe np. w analizie języka, prognozach finansowych, czy grach, gdzie wynik może być sekwencyjnie zależny.

2. Shuffling vs. sekwencyjne uczenie. Shuffling danych (czyli mieszanie kolejności) może zniszczyć zależności czasowe, które RNN próbują uchwycić. Dlatego w treningu RNN często nie miesza się danych, by zachować ich naturalną kolejność.

3. Efekt pamięci (memory effect). Sieci takie jak LSTM mają mechanizmy „bramek” (input, forget, output), które pozwalają im zapamiętywać lub zapominać informacje z przeszłości. To właśnie dzięki temu mogą „rozróżniać zdarzenia w czasie” i reagować inaczej w zależności od historii.


Przykład w grach losowych

Jeśli modelujesz grę, w której wynik zależy od poprzednich wyników (np. strategia gracza, zmieniające się prawdopodobieństwa), RNN może uchwycić te zależności. W takim przypadku „phenomena” to:

- dynamiczne wzorce zachowań

- adaptacja do historii zdarzeń

- modelowanie sekwencji decyzji i wyników.

2025-08-11 (20:04)

status Marriusz2
Data rejestracji: 2009-06-02
Ilość postów: 2512

4670
wpis nr 1 575 413
[ CZCIONKA MONOSPACE ]

A tak w ogóle czytający mogą nie uwierzyć ale trendy są podstawą polskiej gospodarki i corocznie kształci się setki specjalistów od trendów .
Trendami zajmuje sie specjalna dziedzina wiedzy Ekonometria .
Na każdej powaznej uczelni w POlsce jest instytut albo wydział Ekonometrii .

Ekonometria to podstawa dzialałności wszywstkich towarzystw ubezpieczeniowych i całej gospodarki narodowej . GUS posiada dziesiątki wykształconych ekonometrów .
Bez Ekonometrii zamarłaby gospodarka narodowa .
Studiowałem Ekonometrię na UMK w Toruniu .

TO świetna dziedzina wiedzy nauk ścisłych .

============================
Ale akurat do Sieci neuronowych kompletnie się nie nadaje .
==============================

Acha zapomniałem dodać iż do wyznaczeniu trendów wszelkie narzędzia są dostępne w starszych wersjach Excela . Niestety od Excela 2000 część narzędzi została wycięta i jest niedostępna . Ja używam XP i tam jest wszystko . Więc nie ma potrzeby używania sieci do trendów bo trend kroczący ,który jest podstawą prognozowania gier losowych jest dostępny.A w każdej najgłupszej książce do Ekonometrii praktycznie jest opisana cała procedura prognozowania .

Teraz wczasy i pogoda .
Pozdrawiam

--- wpis edytowano 2025-08-11 20:16 ---

2025-08-16 (21:20)

status Marriusz2
Data rejestracji: 2009-06-02
Ilość postów: 2512

4670
wpis nr 1 576 015
[ CZCIONKA MONOSPACE ]

Teraz wracamy do tematu Standaryzacja
=================================
Najpierw trochę o standaryzcji neuronowej .
Wszystkie pliki są zapisywane w txt w separacji tabulatorem ale zdarza się też przecinkiem .
Pliki z ustawieniami sieci mają nazwy standardowe Siec1.net , Siec2.mlp
Wszystkie parametry zapisywane są w tym pliku .Praktycznie wszystkie programy AI mają jedną standaryzację.

Wracamy do roku 2006 .
Mniej więcej wtedy doszło do polskich naukowców ,że właśnie powstały SN typu RTRN .
Tyle ,ze USA wpisały tę technologię na listę Technologii zaawansowanych i nie było szans ani na szczegółowe rozwiązania w tej dziedzinie czyli sieci rekurencyjnych ani prac naukowych ani oprogramowania .
Poważny program Neurosolutions ze względu na cenę był niedostępny .
mieliśmy szczęście dzięki kanałom poufnym najpierw natknęliśmy sie na prace standaryzowane na City University of Hong Kong.
Prace dotyczyły rotorów śmigłowców wojskowych w próbkowaniu dźwięku z pasmach 177,5 Hz ,260,0 Hz i 587,5 Hz

Otóż trzeba wyjaśnić topologię sieci rekurencyjnych .
Mamy sieci rekurencyjne z kilkoma rodzajami sprzęzenia zwrotnego .
jak na przykład połaczenia symetryczne .

W każdym razie po raz pierwszy otrzymaliśmy szansę na stworzenie tak zwanych " Sieci sekwencyjnych "

...cdn
| Dodaj wpis w tym temacie | Spis tematów | Wyniki lottoStrona: 1 2 3 4
Wyślij wiadomość do admina