Forum strony www.multipasko.pl [Regulamin]


Dodaj wpis w tym temacie
Spis tematów
Login:

Hasło:
Strona: 1 2 ... 13 14 15 ... 20 21
Wyślij wiadomość do admina

Przewiń wpisy ↓

lstm

2025-02-08 (06:37)

status heme24
Data rejestracji: 2015-12-08
Ilość postów: 338

14639
wpis nr 1 551 899
[ CZCIONKA MONOSPACE ]

Witam.

Dla mnie sieć daje dobre wyniki jak prognoza mieści się w widełkach +- 1, niestety nie udało mi się zbudować sieci która spełniałaby te warunki, wydaje mi się że popełniamy gdzieś błąd przy konstrukcji, albo same zaimplementowane algorytmy nauki nie nadają się do danych losowych. Mam wątpliwości czy biblioteki pythona nadają się do tego typu danych. Mariusz twierdzi że udało mu się taką sieć stworzyć ale nie widać tego po jego wpisach.

Pozdrawiam.
2025-02-08 (22:32)

status MultiTest
Data rejestracji: 2020-08-05
Ilość postów: 6042

16235
wpis nr 1 552 032
[ CZCIONKA MONOSPACE ]


"To jest znany problem z nadmiernym dopasowaniem."

Lottonauta
Dlaczego musi być zaraz problem z nadmiernym dopasowaniem...
Raczej nic na to nie wskazuje.
2025-02-08 (22:32)

status MultiTest
Data rejestracji: 2020-08-05
Ilość postów: 6042

16235
wpis nr 1 552 033
[ CZCIONKA MONOSPACE ]

heme24
Czy budujesz sam sieć krok po kroku testując i używając bibliotek Pythona czy też zdajesz
się na GPT który zdarza się być z błędami a poprawianie tego przez GPT to mogą być kolejne błedy
Myślę że przy użyciu bibliotek Pythona można rozwiązywać najbardziej nawet bardzo skomplikowanie problemy ale nie chyba nie takie żeby szansa 1:10 mieściła się w widełkach +-1
Bibiotek jest mnóstwo.
A czy wogóle zapytałeś sieć czy Pyhonie jest biblioteka do ustalania trendów z lotto na podstawie wyników losowań ?!
2025-02-09 (09:14)

status heme24
Data rejestracji: 2015-12-08
Ilość postów: 338

14639
wpis nr 1 552 060
[ CZCIONKA MONOSPACE ]

Witam.

Multi test zapytałem chata o tą bibliotekę i odpisał że nie ma takiej biblioteki. Co do widełek +-1 to jeśli sieć nie zbliża nas do tego rezultatu to raczej zabawa nie ma sensu.
Powiedz mi wracając do biblioteki to jest taka biblioteka?
2025-02-13 (21:56)

status heme24
Data rejestracji: 2015-12-08
Ilość postów: 338

14639
wpis nr 1 552 734
[ CZCIONKA MONOSPACE ]

Witam.

Multi test jaka to biblioteka do badania trendów? Bo chat mówi że nie ma takiej.

Pozdrawiam.
2025-02-13 (23:03)

status MultiTest
Data rejestracji: 2020-08-05
Ilość postów: 6042

16235
wpis nr 1 552 754
[ CZCIONKA MONOSPACE ]

heme24
faktycznie biblioteki mówiącej wprost o zastosowaniu do gry lotto może i nie ma, a może GPT podobnie jak Google blokuje zachęcanie do hazardu, mogą być na przykład takie:

pandas – do przetwarzania danych historycznych losowań.
numpy – do statystyk, średnich, odchyleń, histogramów.
matplotlib / seaborn – do wizualizacji trendów.
scipy – do analizy rozkładu liczb.
statsmodels – do wykrywania sezonowości i trendów.
mlxtend – do znajdowania najczęstszych kombinacji (analiza asocjacji).

Te biblioteki mogą pokryc z nadatkiem też takie tematy na forum jak użycie mapy liczb ( każde losowanie odnotowuje wystąpienie liczby lub jej brak i analiza tego, albo to jaka liczba z jaką liczbą wystapi częściej niż to wynika z ich indywidualnych częstotliwości,
2025-02-15 (19:14)

status heme24
Data rejestracji: 2015-12-08
Ilość postów: 338

14639
wpis nr 1 553 057
[ CZCIONKA MONOSPACE ]

Witam.

Multitest a co sądzisz o bibliotece mlxtend ? chat jej nie wymienił.
2025-02-17 (21:15)

status MultiTest
Data rejestracji: 2020-08-05
Ilość postów: 6042

16235
wpis nr 1 553 503
[ CZCIONKA MONOSPACE ]

heme24

Może Ci nie wymienił ale masz przecież nazwę biblioteki.
Wystarczy w edytorze (u mnie PyCharm) wpisać komendę:

pip install mlxtend

...i ma być jak na obrazku:

zdjęcie

a tu wynik z przykładowego zakresu losowań MINI do ostatniego losowania:
==========================================
Reguły asocjacji (często występujące kombinacje):
antecedents consequents antecedent support ... jaccard certainty kulczynski
0 (14) (7) 0.18 ... 0.357143 0.444444 0.527778
1 (7) (14) 0.20 ... 0.357143 0.390244 0.527778
2 (38) (22) 0.16 ... 0.500000 0.563953 0.669643
3 (22) (38) 0.14 ... 0.500000 0.659864 0.669643

[4 rows x 14 columns]

Process finished with exit code 0

=============================================
Co z tego wynika
14 przyciąga 7
7 przyciąga 14
a jedno zdarzenie jest częstsze od drugiego

Jeżeli w ostatnich losowaniach nie ma żadnej z tych liczb albo liczb jest za mało to zmieniamy zakres losowań

--- wpis edytowano 2025-02-17 21:21 ---

2025-02-19 (21:35)

status heme24
Data rejestracji: 2015-12-08
Ilość postów: 338

14639
wpis nr 1 553 936
[ CZCIONKA MONOSPACE ]

import pandas as pd
from mlxtend.frequent_patterns import apriori, fpgrowth, association_rules
from mlxtend.preprocessing import TransactionEncoder

# Wczytanie pliku CSV
file_path = "D:\\wyniki.csv"
df = pd.read_csv(file_path, sep=";")

# Pobranie tylko kolumn z liczbami (L1-L20)
lotto_numbers = df.iloc[:, 4:].values.tolist()

# Przekształcenie na format binarny dla MLxtend
te = TransactionEncoder()
te_ary = te.fit(lotto_numbers).transform(lotto_numbers)
df_encoded = pd.DataFrame(te_ary, columns=te.columns_)

# Apriori - wyszukiwanie częstych zestawów liczb (niższy próg wsparcia, np. 9%)
frequent_itemsets_apriori = apriori(df_encoded, min_support=0.09, use_colnames=True)

# FP-Growth - alternatywa dla Apriori
frequent_itemsets_fpgrowth = fpgrowth(df_encoded, min_support=0.09, use_colnames=True)

# Reguły asocjacyjne
rules = association_rules(frequent_itemsets_apriori, metric="confidence", min_threshold=0.7)

# 🔹 **Zapis wyników do pliku Excel**
output_file = "D:\\wyniki_trend2.xlsx" # Możesz zmienić ścieżkę zapisu

with pd.ExcelWriter(output_file) as writer:
frequent_itemsets_apriori.to_excel(writer, sheet_name="Częste zestawy (Apriori)", index=False)
frequent_itemsets_fpgrowth.to_excel(writer, sheet_name="Częste zestawy (FP-Growth)", index=False)
rules.to_excel(writer, sheet_name="Reguły asocjacyjne", index=False)

print(f"Wyniki zostały zapisane do pliku: {output_file}")

# Wyświetlenie wyników
print("Częste zestawy liczb (Apriori):")
print(frequent_itemsets_apriori)

print("Częste zestawy liczb (FP-Growth):")
print(frequent_itemsets_fpgrowth)

print("Reguły asocjacyjne (Apriori):")
print(rules)
2025-03-08 (00:18)

status pegasus
Data rejestracji: 2015-11-19
Ilość postów: 178

14614
wpis nr 1 556 590
[ CZCIONKA MONOSPACE ]

Nie wiem co tu nowego kombinujecie
Ja komendy wpisuje w CMD.

Teraz robię testy na Google Colab, bo mój komp za słaby jest na te obliczenia.
A do kodów Groka 3 używam, ChatGpt już mi się znudził
2025-03-09 (00:42)

status pegasus
Data rejestracji: 2015-11-19
Ilość postów: 178

14614
wpis nr 1 556 729
[ CZCIONKA MONOSPACE ]

Model Ai generowania video Alibaby Wan 2.1 chodzi na pythonie ,więc trenowanie w pythonie działa, tyle że lotto nie da się przewidzieć sieciami.
2025-03-11 (23:55)

status Marriusz2
Data rejestracji: 2009-06-02
Ilość postów: 2522

4670
wpis nr 1 557 208
[ CZCIONKA MONOSPACE ]

A z jakiej topologii SN korzystałeś ?

2025-03-15 (18:07)

status Marriusz2
Data rejestracji: 2009-06-02
Ilość postów: 2522

4670
wpis nr 1 557 695
[ CZCIONKA MONOSPACE ]

Tak myślałem
2025-03-16 (09:51)

status heme24
Data rejestracji: 2015-12-08
Ilość postów: 338

14639
wpis nr 1 557 764
[ CZCIONKA MONOSPACE ]

witam.

Standardowymi technikami nie da się zbudować skutecznej sieci, niestandardowe sieci są niedostępne,
i na tym można zakończyć dyskusję o sieciach która na tym forum toczy się ponad 20 lat.Biblioteki pythona się do tego nie nadają.
2025-03-20 (12:20)

status MultiTest
Data rejestracji: 2020-08-05
Ilość postów: 6042

16235
wpis nr 1 558 389
[ CZCIONKA MONOSPACE ]

...niestandardowe sieci są niedostępne...

Heme
to szkoda bo w niestandardowych sieciach zawsze podaje się liczby na środku ekranu...

ale jest jeszcze taki wybór, z nieograniczonym dostępem do WSZYSTKICH modeli rozumowania.

zdjęcie
2025-03-20 (16:39)

status heme24
Data rejestracji: 2015-12-08
Ilość postów: 338

14639
wpis nr 1 558 428
[ CZCIONKA MONOSPACE ]

Witam.

Multi test wracając do chata to faktycznie kiepsko pisze kody, robi masę błędów a do końca nie wiadomo co ten kod robi, jestem trochę rozczarowany.
2025-07-03 (18:01)

status pegasus
Data rejestracji: 2015-11-19
Ilość postów: 178

14614
wpis nr 1 570 912
[ CZCIONKA MONOSPACE ]

Kontynuacja eksperymentu eurojackpot...

Napisałem skrypt żeby sprawdzić co jest w pamięci modelu, problem w tym że te liczby z pamięci jakoś nie wchodzą.

Pamięć zawiera 23080 próbek
3 najlepsze kombinacje:
17, 21, 27, 30, 38 + 8, 11
Trafione liczby główne: 3, Trafione liczby dodatkowe: 2

10, 11, 35, 44, 46 + 3, 10
Trafione liczby główne: 3, Trafione liczby dodatkowe: 2

6, 8, 9, 13, 24 + 9, 11
Trafione liczby główne: 3, Trafione liczby dodatkowe: 1

======================================================

Postanowiłem sprawdzić stary wpis eurojackpot... 1 zestaw trafienie
. 29.04.2025 4/5 + 2/2

Szkoda że nie było kontynuacji i nie pamiętam jak to robiłem
2025-07-05 (10:18)

status heme24
Data rejestracji: 2015-12-08
Ilość postów: 338

14639
wpis nr 1 571 089
[ CZCIONKA MONOSPACE ]

Witam.

Pegasus o co chodzi z tą pamięcią modelu?
2025-07-05 (18:53)

status pegasus
Data rejestracji: 2015-11-19
Ilość postów: 178

14614
wpis nr 1 571 130
[ CZCIONKA MONOSPACE ]

heme24 Z tego co pamiętam trenowany model i (pamięć) była zapisywana do pliku, a raczej 2 pliki 1 plik to model a drugi plik to pamięć, a potem z tych plików były typy.

To był jakiś agent i tam można było zapisywać pamięć ( czyli to co normalnie masz w pamięci DDRAM) ale po wyłączeniu programu tracisz to co model pamiętał.
2025-07-05 (19:22)

status pegasus
Data rejestracji: 2015-11-19
Ilość postów: 178

14614
wpis nr 1 571 137
[ CZCIONKA MONOSPACE ]

skrypt wyglądał mniej więcej tak


import pickle
import pandas as pd

# Ścieżka do zapisanej pamięci
memory_filename = 'C:/eurojackpot/euro_memory.pkl'
losowania_file = 'C:/eurojackpot/eurojackpot.csv'

# Wczytaj zapisaną pamięć
with open(memory_filename, 'rb') as f:
memory_data = pickle.load(f)

# Pamięć agenta zawiera stany, akcje, nagrody, nowe stany i flagę 'done'
memory = memory_data['memory'] # To jest deque z zapisanymi próbkami
print(f"Pamięć zawiera {len(memory)} próbek")

# Wczytaj bazę losowań Eurojackpot
losowania_data = pd.read_csv(losowania_file)

# Funkcja porównująca ilość wspólnych liczb z bazy i z pamięci
def compare_numbers(predicted_main, predicted_additional, drawn_main, drawn_additional):
# Oblicz liczbę trafionych liczb głównych
main_matches = len(set(predicted_main) & set(drawn_main))
# Oblicz liczbę trafionych liczb dodatkowych
additional_matches = len(set(predicted_additional) & set(drawn_additional))
return main_matches, additional_matches

# Lista do przechowywania najlepszych kombinacji
best_combinations = []

# Wyszukiwanie najlepszych kombinacji
for idx, sample in enumerate(memory):
state, action, reward, next_state, done = sample

# Akcja to lista indeksów liczb, które były wybrane przez agenta
# Podzielmy akcję na liczby główne (1-50) i dodatkowe (1-12)
main_numbers = [num + 1 for num in action if num < 50] # Liczby główne (1-50)
additional_numbers = [num - 50 + 1 for num in action if num >= 50] # Liczby dodatkowe (1-12)

if len(additional_numbers) < 2:
additional_numbers = [1, 2] # Default, w razie braku obu liczb dodatkowych

# Sortowanie liczb głównych i dodatkowych
predicted_numbers_main = sorted(main_numbers)[:5]
predicted_additional = sorted(additional_numbers)[:2]

# Porównanie z bazą losowań
for _, row in losowania_data.iterrows():
drawn_main = [row[f'main_number{j}'] for j in range(1, 6)]
drawn_additional = [row[f'additional_number{j}'] for j in range(1, 3)]

# Sprawdzenie, ile liczb się zgadza
main_matches, additional_matches = compare_numbers(predicted_numbers_main, predicted_additional, drawn_main, drawn_additional)

# Oblicz wynik na podstawie zgodności (trafione liczby główne + dodatkowe)
score = main_matches + additional_matches

# Zapisz kombinację z wynikiem do listy
best_combinations.append({
'predicted_main': predicted_numbers_main,
'predicted_additional': predicted_additional,
'main_matches': main_matches,
'additional_matches': additional_matches,
'score': score
})

# Ograniczenie liczby próbek do porównania
if idx >= 555: # Sprawdź 20 próbek
break

# Sortowanie kombinacji według najlepszego wyniku (score)
best_combinations = sorted(best_combinations, key=lambda x: x['score'], reverse=True)

# Wyświetlanie 3 najlepszych kombinacji
print("3 najlepsze kombinacje:")
for i, comb in enumerate(best_combinations[:5]):
print(f"{', '.join(map(str, comb['predicted_main']))} + {', '.join(map(str, comb['predicted_additional']))}")
# print(f"Trafione liczby główne: {comb['main_matches']}, Trafione liczby dodatkowe: {comb['additional_matches']}
")
| Dodaj wpis w tym temacie | Spis tematów | Wyniki lottoStrona: 1 2 ... 13 14 15 ... 20 21
Wyślij wiadomość do admina