Hej rovnake. Zhiheng Huang? Inak ta siet bola celkom invariatna voci poctu LSTM buniek, mozem otestovat... ja som mal nic moc dataset, tak ked som to okresal zo 150 na 15, tak zacalo padat score.
Ak si urobis slovnik, a nebudes mat prelozene vety (tj len si vytiahnes do slovnika slova ktore pouzivas) tak to nezere nijak moc pamate... aj ked zalezi dost od dat.
Ak by si si ale prekladal vsetky vety, tak to velmi lahko pretecie cez ram... (Tj kazda veta je pocet slov * 300d vektor + padding). Som to spravil v mene nerozmyslania a to neslo.
Kazdopadne, k PC.
Odporucam zobrat co najsilnejsiu grafiku (idealne 1070-1080) najma preto ze tieto 2 su 8GB, zatial co 1060 je max 6GB. AMD sice uz vypustilo nejake veci na stojove ucenie a podporu TF, ale nebudem ta nechavat experimentovat s tym.
Na CPU az tak nezalezi, na tom asi nebudes pustat i tak nic, prepokladam ze to robis v pyhton-e? Ten je inherentne single thread, iba ze by sa ti chcelo pisat vlastne semafory za tymto ucelom a neviem ci by si si pomohol v rychlosti...
Ramku by som menej ako 16GB nebral. Nakolko sa nechystas taktovat, tak ti staci 3000MHz. Ryzen vie profitovat z rychlych ramiek, ale bez taktovania nebude rychlejsi ako 2900 MHz. Ak sa rozhodnes usetrit na grafike, a zobrat 1070, tak by som investoval do vacsej ramky a lepsieho chladenia/modelu grafiky.
Disk tam mas 275GB SSD. Su aj rychlejsie, ale takto to vychadza s tymto rozpoctom. Prepokladam ze mas nejaky externy disk na data?