Jump to content
IGNORED

Twitter v2.0 - powered by Elon


mustang

Recommended Posts

12 hours ago, Shan Jan said:

I to radi na osnovu pravila koje same razvije a kojih ljudi nisu svesni.

e da, nikakva ''pravila'' nije on sam razvio, to je isto dio ove hype & pump spike:  riječ je o davno izumljenoj monte karlo metodi, statističkom izračunu na temelju vektora. Ai chat botovi ne znaju što pišu, a milijuni AI džubar-rezultata u obliku sisatih AI ljepotica na koje ''autori'' prodaju jeftine pretplate, ne bi li ušićarili neku sitnu paru od narajcanih bednika, na, recimo, Deviantartu, često imaju tri noge bez ljudske intervencije. Ti AI modeli ne ''znaju'' što crtaju, niti su ikad ''znali'' kako izgleda ljudsko ''oko'' dok im nije jasno isprogramirano.

Edited by Roger Sanchez
Link to comment
50 minutes ago, Roger Sanchez said:

Apsolutno se ništa krupno nije desilo, procurilo je nešto da je AI sposoban formulirati matematičke probleme pa ih riješiti (vjerojatno kao i u slučaju ChatGPT s oko 90% točnosti, što za ozbiljne matematičke probleme o kojima ovise životi nije ni izdaleka dovoljno).

 

Sav ostali bullshit sve ovo vrijeme o ''opasnostima za ljudski rod'' i sličnim pizdarijama je običan ''hype & pump'' bulšit gdje imaoci dionica tih tvornica magle dižu valuaciju svojih dionica da si osiguraju novac ili bar dio novca (u cold hard cash obliku, naravno, nisu blesavi kao njihove marks) za penziju.

 

Ne znam zašto u tome sudjeluju vladajuće garniture demokratskih država, ali razlog je vjerojatno sličan kao i za crypto-blockchain hype & pump balon, onaj koji se nedavno fino probušio u aferi FTX - dobra stara korupcija.

 

Radi se o rešavanju matematičkih problema za koje sistem pre toga nije bio treniran podacima, dakle novi i za sistem neviđeni problemi. Mogućnost unsupervised learninga sa explainable AI, jer je u pitanju matematičko dokazivanje, svaki korak ima jasan trag. White box. To nije mala stvar.

Drugo, hype & pump'' bulšit argumentom bi mogao i da "objasniš" late Stephen Hawkingova upozorenja o AI.

Edited by Lord Protector
Link to comment
18 minutes ago, Lord Protector said:

Radi se o rešavanju matematičkih problema za koji sistem pre toga nije bio treniran podacima, dakle novo i neviđeno

Lol, nije treniran. :laugh: Treniran je, samo na novi zakrabuljeniji način. Ovo je samo primjer:

Quote

Researchers from Microsoft Research Asia, Peking University, and Xi’an Jiaotong University have developed a new technique to improve large language models’ (LLMs) ability to solve math problems by having them learn from their mistakes, akin to how humans learn.

The researchers have revealed a pioneering strategy, Learning from Mistakes (LeMa), which trains AI to correct its own mistakes, leading to enhanced reasoning abilities, according to a research paper published this week.

The researchers drew inspiration from human learning processes, where a student learns from their mistakes to improve future performance.

“Consider a human student who failed to solve a math problem, he will learn from what mistake he has made and how to correct it,” the authors explained. They then applied this concept to LLMs, using mistake-correction data pairs generated by GPT-4 to fine-tune them.

...

The researchers first had models like LLaMA-2 generate flawed reasoning paths for math word problems. GPT-4 then identified errors in the reasoning, explained them and provided corrected reasoning paths. The researchers used the corrected data to further train the original models.

The results of this new approach are significant. “Across five backbone LLMs and two mathematical reasoning tasks, LeMa consistently improves the performance compared with fine-tuning on CoT data alone,” the researchers explain.

Dakle, ispravlja ih GPT-4 koji je, među silnim ostalim podacima koje su dobili džabe, ingestirao i tisuće matematičkih udžbenika i knjiga.

Rezultati su impozantni:

Quote

What’s more, specialized LLMs like WizardMath and MetaMath also benefited from LeMa, achieving 85.4% pass@1 accuracy on GSM8K and 27.1% on MATH.

 

18 minutes ago, Lord Protector said:

Stephen Hawkingova upozorenja o AI

Stephen se osim s astronomskom fizikom zabavljao i sa sci-fijem, ovo tvoje je bio naučno-eshatološki dio žanra populariziranja nauke.

 

Naravno da AI jest opasan za određeni dio čovječanstva - opasan je za sve autore knjiga i crteža i fotografija itd. koji nisu na vrijeme maknuli svoja copyrightom zaštićena djela s interneta, i sada neko na tome što je upotrebom web-crawlera pokrao hypom pokušava ''zaraditi'' svoje milijarde.

Edited by Roger Sanchez
Link to comment
2 hours ago, Roger Sanchez said:

e da, nikakva ''pravila'' nije on sam razvio, to je isto dio ove hype & pump spike:  riječ je o davno izumljenoj monte karlo metodi, statističkom izračunu na temelju vektora. Ai chat botovi ne znaju što pišu, a milijuni AI džubar-rezultata u obliku sisatih AI ljepotica na koje ''autori'' prodaju jeftine pretplate, ne bi li ušićarili neku sitnu paru od narajcanih bednika, na, recimo, Deviantartu, često imaju tri noge bez ljudske intervencije. Ti AI modeli ne ''znaju'' što crtaju, niti su ikad ''znali'' kako izgleda ljudsko ''oko'' dok im nije jasno isprogramirano.

 

 

  • Haha 1
Link to comment

Ne znam što ovime dokazuješ osim da Ma filozofira, a Musk, kome je to i financijski interes, hajpuje?

 

Njegov grok se barem hrani etički, ako dobro čitam da se hrani milijunima rečenica tviteraša koje su stečene uglavnom prije njega, legalno jer smo svi pristali na to da su u vlasništvu tvitera čim smo napisali prvu rečenicu tamo

Quote

He said the link-up with X is "a massive advantage over other models" of generative AI. Grok "loves sarcasm. I have no idea who could have guided it this way," the billionaire quipped, adding a laughing emoji to his post

ha ha

Edited by Roger Sanchez
Link to comment
Quote

The researchers first had models like LLaMA-2 generate flawed reasoning paths for math word problems. GPT-4 then identified errors in the reasoning, explained them and provided corrected reasoning paths. The researchers used the corrected data to further train the original models.

The results of this new approach are significant. “Across five backbone LLMs and two mathematical reasoning tasks, LeMa consistently improves the performance compared with fine-tuning on CoT data alone,” the researchers explain.

 

B-E-N-Z-I-N Kako se ovde čudno piše voda Ovo ne zvuči da je LLM/AI zaključio da su u pitanju greške te uradio korekciju.

Link to comment

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
×
×
  • Create New...