Elon Muski aupaiste röövimine – 12. osa
xAI ja Grok
Larry Romanoff
Elon Musk tutvustas kolmapäeva hilisõhtul otseülekandes xAI lipulaeva AI mudeli Grok uusimat versiooni, mis kiitis Grok 4 võimekust saavutada võrdlusuuringutes parimaid tulemusi. Allikas
Elon Musk lahkus OpenAI-st 2018. aastal kavatsusega luua oma versioon tehisintellektist, kuid mitu aastat ei paistnud ta selles valdkonnas midagi teinud olevat. Sel ajal moodustas OpenAI oma kasumit taotleva haru ja keskendus vaikselt teadustööle, kuni 2022. aasta novembris ilmus ChatGPT, mis võttis maailma enam-vähem haardesse.
Musk oli nüüd lõpuks sunnitud tegutsema, nii rünnakuliselt kui ka kaitsvalt. Tema xAI asutati 2023. aasta märtsis Nevadas, kus Elon Musk oli kirjas ainsa juhatajana. [1] Kuid vaid paar nädalat hiljem, 22. märtsil 2023, avaldas Musk „avaliku kirja”, milles kutsus üles moratooriumile tehisintellekti arendamisel, et „töötada välja uued ohutusstandardid” selle tehnoloogia jaoks. See oli selgelt ründav samm, sest Muski nõutud „paus” kehtis ainult tema konkurentidele. Ta lootis lihtsalt koguda avalikkuse toetust, tuginedes peamiselt hirmule, et sulgeda kõik oma konkurendid ja saada ise võimalus neile järele jõuda.
Elon Musk jagas pühapäeval oma uue tehisintellekti ettevõtte Grok nimelise juturoboti arvutikoodi, mis on viimane samm tema jätkuvas konkurentsis OpenAI ja selle tegevjuhi Sam Altmaniga. Allikas
12. juulil 2023 tutvustas Musk ametlikult xAI-d ja selle esimesi töötajaid, kellest enamiku ta värbas Google'ist, DeepMindist ja OpenAI-st. Meeskond koosnes peamiselt endistest teadlastest OpenAI-st, DeepMindist, Google'ist, Microsoftist, Teslast ja Toronto Ülikoolist.
Nagu artiklis The Street märgiti, [2] „Aga samal kuul (juulis) seadsid vaatlejad juba kõik Muski väidete põhialused kahtluse alla.” Artiklis väideti, et Musk positsioneeris oma xAId ChatGPT ja Google'i konkurendina, kuid tema lähenemisviisis oli „mõningaid põhimõttelisi probleeme”. „Nii nagu Musk ei ole astrofüüsik, kui tegemist on kosmosega seotud küsimustega, ei ole ta ka ekspert tehisintellekti valdkonnas.“ Argumendid olid vastu Muski väidetele, et ta ehitab mitte ainult „ohutu” tehisintellekti mudeli, vaid „uudishimuliku ja tõde otsiva” mudeli, mille eesmärk on „mõista universumi tõelist olemust”. Elon Muski väited olid muidugi absurdsed, nagu kõik eksperdid on märkinud. Juturobot ei saa olla „uudishimulik“ üheski mõttes, milles me seda sõna mõistame, ja „tõde otsiv“ element on juba osutunud manipuleerivaks nonsensiks. Ja muidugi on tehisintellekti kavandatud võime „mõista universumi tõelist olemust“ lihtsalt veel üks Muski hallutsinatsioon, mis ei kvalifitseeru isegi fantaasiaks.
Elon Musk astus nüüd pikaajalisse perioodi, mis oli täis nii üllatavalt kaitsvaid kui ka üllatavalt ründavaid samme. Muski esimest AI versiooni, Grok-1, tutvustati 2023. aasta novembris pärast vaid kahekuulist koolitust [3]. Kohe pärast seda alustas Musk intensiivset rünnakut OpenAI-le ja eriti Sam Altmanile, kuna 2023. aasta novembris oli Musk juba korraldanud Altmani ja Brockmani vallandamise. Umbes samal ajal esitas Musk hagi, et blokeerida OpenAI ja Microsofti partnerlus, lootes hävitada selle, mida ta nimetas jälgiks ja ohtlikuks „suletud lähtekoodiga” tehisintellektiks, samal ajal kui ta oli hõivatud omaenda jälgi ja ohtliku suletud lähtekoodiga xAI loomisega. See oli kõik kättemaksuhimuline suits ja peeglid, mille aluseks oli vale altruism, mis oli ehitatud manipuleerimise ja pettuse raamistikule.
Kaitses tundus Muskil olevat kinnisideeks luua AI-toode, mis oleks kõigist tema konkurentidest ülekaalukam, ning seda tahtis ta saavutada kahel viisil: (1) ülemäärane rõhuasetus toorele arvutusvõimsusele – mis DeepSeek'il peagi osutus mittevajalikuks – ja (2) Twitterist (X) pärit vigaste, rikutud ja suures osas kasutuskõlbmatute õppimisandmete laialdane kasutamine koos sünteetiliste andmetega. Alavääriliste andmete valikul oli mitmeid eeliseid. Esiteks oli Twitter vabalt kättesaadavate andmete tulv ja see oli tasuta. Muskil puudusid õiguslikud ja lepingulised load kasutada meediast ja muudest allikatest pärit kõrgema kvaliteediga andmeid, seega improviseeris ta lihtsalt sellega, mis oli kättesaadav. Sünteetilised andmed olid samuti tasuta ja neil oli lisaks eelis, et neid oli võimalik piiramatult manipuleerida.
Selles, mida võiks pidada ainult „konkurentsist tingitud ärevuseks”, investeeris Musk 3–4 miljardit dollarit arvutusressurssidesse. Ta alustas 24 000 H100 GPU-ga ja ehitas 2024. aasta juuliks ilmselt 100 000 H100 „Colossus” klastri. [4] See tohutu arvutusvõimsus võib osaliselt selgitada Groki arengu kiirust. Kõik meediateated näitasid siis (ja näitavad ka 2025. aasta juulis), et Muski versioon tehisintellektist ja tema Grok olid (ja on endiselt) oluliselt halvemad kui DeepSeek, OpenAI, Anthropic's Claude ja sarnased tooted. Põhjuseks on see, et Muski otsus kokku hoida andmetega tõi kaasa halvasti koolitatud, vigadest tulvil ja üldiselt ebakvaliteetse tehisintellekti, kuigi see toimis mõnikord valitud olukordades aktsepteeritavalt.
Siinkohal teen väikese kõrvalepõike, et arutada selle ettevõtmise finantsaspekte.
Rahastamine ja hindamine
xAI hindamise kohta on palju vastuolulist teavet. Musk reklaamis 2024. aasta alguses 15–20 miljardi dollari suurust summat [5], olles saanud vaid 6 miljardi dollari suuruse rahastuse, ning pärast teist 6 miljardi dollari suurust rahastamisvooru 2024. aasta lõpus väitis ta, et summa ulatus 400–500 miljardi dollarini. Selline kiire väärtuse hüpe ilma proportsionaalse tulude kasvuta viitab sellele, et Elon Muski liiga aktiivne kujutlusvõime on olnud liiga aktiivne, eriti kuna Grok teatas vaid 100 miljoni dollari suurust aastatulu. Kui Elon Muskil oleks õigus, maksaksin ma palju raha, et õppida, kuidas muuta 6 dollarit 500 dollariks, tegemata midagi muud kui panema need oma taskusse.
See ei ole keeruline. Musk asutas tühja ettevõtte ja ostis suure hulga GPU-sid. Seni on olnud ainult kulud, tulusid pole. Ettevõtte väärtus: ainult hoone, mis sisaldab tuhandeid kasutatud arvutikiipe. Seejärel sai ta investoritelt kaks vooru 6 miljardi dollari suurust rahastamist. Seni on olnud ainult kulud, veidi raha pangas, aga ikka veel pole tulusid. Ettevõtte väärtus: 12 miljardit dollarit pluss hoone, mis sisaldab tuhandeid kasutatud arvutikiipe. 500 miljardi dollari väärtuse allikas? Elon Muski petturlik iseloom ja absurdne kujutlusvõime, mida toovad teieni ebaausad meediamogulid, kes reklaamivad „maailma suurimat leiutajat”.
Samuti tundub Muski poolt xAI ühinemise ajal Twitterile/X-ile omistatud 33 miljardi dollari väärtus mitte ainult küsitav, vaid ka absurdne, arvestades kasutajate ja reklaamijate lahkumist. Pärast ülevõtmist kaotas Twitter 50% oma suurimatest reklaamijatest ja 15% kasutajatest, mille tagajärjel tulud kokku varisesid. [6] Wall Street Journal kirjutas, et pärast Muski ostu „kaotas Twitter kasutajaid ja reklaamijaid”, kusjuures Journal ja teised vaatlejad hindasid selle väärtuseks 10 miljardit dollarit või isegi vähem. [7][8]
Elon Muski osalus xAI-s vähenes oluliselt.
Twitteri (X) ühinemine xAI-ga oli hädavajalik. Arvestades väärtuse langust, oli ühinemine xAI-ga ainus võimalik lahendus, et varjata tekkivat tõde investorite ja avalikkuse eest, kuid sellel oli oluline mõju Twitteri olemasolevatele investoritele. Ühinemine sidus nende finantshuvid ebaõnnestunud Twitteris otseselt xAI loodetava edu ja kasvuga. Teatati, et endised Twitteri investorid vahetavad oma Twitteri aktsiad 25% osaluseks Muski xAI-s. [9] Üks tulemus on see, et Elon Muski osalus xAI-s vähenes oluliselt. Endised Twitteri investorid võtsid 25% ja 15 või enam investorit, kes andsid eespool mainitud 12 miljardit dollarit, oleksid võtnud enamiku ülejäänud aktsiatest. Ma ei tea Elon Muski osalust xAI-s, kuid see võib olla vaid 10%.
2024. aasta mais väitis Musk, et ettevõtte väärtus on 180 miljardit dollarit (tõusnud nullist), kuigi ta oli kogunud vaid 6 miljardit dollarit ja tulud olid minimaalsed. 2024. aasta detsembriks tõusis väärtus 500 miljardi dollarini pärast veel 6 miljardi dollari kogumist, viidates partnerlusele NVIDIA ja AMD-ga. Reaalsus on aga see, et sellist tohutut kasvu toetavaid auditeeritud finantsandmeid ei ole. Mõned analüütikud propageerisid ideed, et väärtus põhineb pigem „strateegilistel partnerlustel” (nt NVIDIA GPUde tarnimine) kui ärilisel tõmbel. Kuid selline partnerlus peegeldab vaid arvutusressursside kättesaadavust ja isegi kui need antakse tasuta investeeringuna, on nende ainus praegune väärtus nende kiipide maksumus. Tegelikult veenis Musk graafikafirmasid (investoreid) panustama raha asemel arvutusvõimsusse, hinnates GPU-dele juurdepääsu oluliselt ülehinnatud määraga.
Muski narratiivne kontroll mõjutab arusaamu. Reklaamides Groki kui „hirmuäratavalt intelligentset” ja esitades julgeid väiteid tulevaste võimete kohta, tekitab ta haipimise, mis paisutab hindu palju üle praeguste põhialuste. Ka ajastus on kahtlane – hindade tohutu tõus toimus Muski õigusvaidluste ajal OpenAI ja SEC-ga, mis viitab Muski tüüpilisele ja hästi tuntud tähelepanu kõrvale juhtimise taktikale. Tõde on see, et xAI ja X hinded tunduvad olevat täiesti lahus traditsioonilistest näitajatest, olles tugevalt mõjutatud Muski reklaamist, mitte orgaanilisest kasvust või kasumlikkusest. Ja nagu enamiku Muski väidete puhul, puudub sõltumatu kontroll.
xAI ja Twitteri ühine väärtus, mida sageli mainitakse, tuleneb peamiselt Elon Muski kujutlusvõimest. Selle tegeliku väärtuse kohta puuduvad kindlad hinnangud ja minu teada pole ühtegi usaldusväärset asutust, mis kinnitaks, et xAI väärtus on isegi nii suur kui 80–120 miljardit dollarit, mida Muski skeptikud sageli mainivad. Kõiki neid hindamisi võiks pidada kriminaalseks pettuseks. Kui mitte midagi muud, siis mõjutaks ülemäärane haipimine ja reklaam kindlasti praeguste ja potentsiaalsete investorite arvamusi, õhutades valet uskumust, et Muski ettevõttesse investeeritud paar miljardit dollarit võiksid maagiliselt 100-kordistuda.
Tagasi Groki juurde
Musk kasutab maailma kui inimesi oma beetaversioonide katsetamiseks.
Muski tehisintellektil ja Grokil oli (ja on endiselt) palju tõsiseid kvaliteediprobleeme. Isegi Grok-3 viimane versioon tekitas murettekitavaid meditsiinilisi probleeme ja näitas mitmeid muid puudusi. [10] Tulemustest selgub, et Musk alahindas oluliselt tehnilisi nõudeid (taas kord, vähene teadmine on ohtlik asi), kuid see näitab ka taas Elon Muski nooruslikku ja hoolimatut „test-lenda-kukuta” filosoofiat, mille kohaselt toode viiakse turule ammu enne, kui see valmis on. Nagu varem selles sarjas märgitud ja hiljem korduvalt märgitakse, kasutab Musk maailma oma beetaversioone inimeste peal katsetamiseks. Seda nägime SpaceX-i rakettide plahvatustega, Tesla isesõitvate autode ohtlike (ja surmavate) vigadega, Neuralinki enneaegsete katsetustega, mis põhjustasid mõõtmatut kannatust, ja palju muuga. Kõik plahvatused, keskkonnakahjustused, autoõnnetused ja surmad, loomade kannatused on vaid kaasnev kahju, progressi hind. Mul on tunne, et nagu peaaegu kõigi teiste asjadega, surus Musk Groki maailma ammu enne, kui see "oli valmis lendama".
Musk asutas xAI märtsis 2023 ja märtsiks 2024 oli tal mitte ainult oma suur keelemudel (LLM), vaid ta tõi turule ka oma esimese juturoboti Grok-1, millele järgnes Grok-2 ja Grok-3, mis ilmus veebruaris 2025. Teistel AI-firmadel, nagu Google, OpenAI, Anthropic, kulus LLM-i ja juturobotite arendamiseks mitu aastat, kuid Musk näib olevat saavutanud kõik selle vaid mõne kuuga oma esimesel katsel ja vaid ühe aastaga selles, mis esitati „hirmuäratavalt intelligentsena” lõpptööna. See oleks pidanud olema võimatu ja, nagu eespool märgitud, moodustavad tohutud arvutusressursid vaid osa sellest kiirest arengust. Ülejäänu on odav, tasuta, kuid oluliselt halvemate andmetega, mida Musk kasutas koolituses, nurkade mahalõikamises ja osaliselt valmis ning halvasti koolitatud toote enneaegses kasutuselevõtus.
Siin on ka eetika küsimus. ELi üldise andmekaitse määruse alusel läbiviidavad uurimised ja Muski ilmselge meditsiiniline ületamine viitavad mitte innovatsioonile või saavutusele, vaid hoolimatule kasutuselevõtule. Ja 100 000 GPU kasutamine probleemi lahendamiseks ei taga läbimurret ega edu. Teised AI arendajad kogesid märkimisväärseid viivitusi, kuna skaleerimisest saadav kasu vähenes [11]. Groki jätkuv halvemus tõestab, et AI valdkonnas ei sünnita arvutusvõimsus ilma ühtse strateegiata mitte Homo Sapiens, vaid toores ja deformeerunud Homo Neanderthal. Muski Colossus-klaster võib selle tasakaalu veel muuta, kuid 2025. aasta keskpaigaks jääb xAI endiselt konkurendiks, kes püüab teistele järele jõuda. Elon Muski konkurentsist ajendatud kiirustatud väljalasked paljastasid tõsiseid kvaliteediprobleeme.
Samuti on tõsi, et (1) arhitektuurilised erinevused on väga olulised, (2) koolitusandmete kvaliteet ja ühtlustamine on otsustava tähtsusega, (3) parameetrite arv ei ole võrdne kvaliteedi või võimekusega. Meil on tõhusus vs mastaap: väiksemad mudelid, nagu DeepSeek-R1, võivad olla väga optimeeritud mõtlemisvõime ja faktilise täpsuse jaoks, isegi kui neil on vähem parameetreid, kuid tohutu mudel, millel on suured arvutusressursid (nagu Muski Grok ja tema Colossus), kui see on halvasti koolitatud või koolitatud kehvade andmete põhjal, jääb ikkagi alla hästi koolitatud mudelile, nagu DeepSeek või ChatGPT. Grok-i taolised mudelid tekitavad tavaliselt palju sagedamini hallutsinatsioone ja on üldiselt vähem usaldusväärsed kui tihedad mudelid, nagu DeepSeek, mis kasutavad kõiki parameetreid ja annavad tavaliselt täpseid, järjepidevaid ja ennustatavaid tulemusi. Et see jääks selgeks, on „hallutsinatsioonid” kahte liiki: (1) vale teave, andmed ja isegi tsiteeritud viited, mis on täielikult AI poolt õhust välja mõeldud, ja (2) otsesed valed, mida juturobotid on programmeeritud rääkima, kuid mille omanikud nimetavad „hallutsinatsioonideks”, kui nad valedesse kinni jäävad. Mul on tugev kahtlus, et (2) on levinum kui (1).
Andmed ja koolitusega seotud probleemid
„AI-teadlased loovad suuri keelemudeleid (LLM), nagu need, mis toidavad ChatGPT-d ja Claude'i, sisestades miljardid sõnad neurovõrku. Koolituse käigus töötleb AI-süsteem teksti korduvalt, luues selle käigus statistilisi seoseid sõnade ja mõistete vahel. Neurovõrku sisestatud koolitusandmete kvaliteet mõjutab otseselt tulemuseks oleva AI-mudeli võimekust. Hästi toimetatud raamatute ja artiklite põhjal koolitatud mudelid annavad tavaliselt sidusamaid ja täpsemaid vastuseid kui madalama kvaliteediga tekstide, näiteks juhuslike YouTube'i [või Twitteri] kommentaaride põhjal koolitatud mudelid.” Võrdluseks võib tuua, et Anthropic kulutas miljoneid dollareid trükitud raamatute füüsiliseks skaneerimiseks, et luua Claude. Ettevõte palkas Google Booksi raamatute skaneerimise projektist Tom Turvey ja andis talle ülesandeks hankida „kõik maailma raamatud”. [12]
Elon Muski xAI ja Grok on koolitatud peamiselt Twitteri (X) sisu põhjal, kuid Twitteri sisul on kehv lauseehitus, kehv grammatika, halb inglise keel, tänavasläng, roppused ja sotsioopaatiline mõttetus. See on väga madal tase võrreldes suuremate meediakanalite, ajakirjade ja raamatute sisuga, mis on kirjutatud palju kõrgemal keeletasemel. See andmete kvaliteet kajastub loomulikult Groki väljundis, muutes selle määratluse järgi vähem kasulikuks, vähem usaldusväärseks ja vähem soovitavaks kui teised mudelid. Twitteri/X sisu loob paratamatult halvema tehisintellekti. Tehisintellekti treenimine segase sotsiaalmeedia andmestiku peal ja seejärel ootus, et see „mõistaks universumit“, tekitab mõningaid väljakutseid.
Twitteri keelelised omadused, milleks on inglise keeles vaid 33 tähemärki, suur hulk lühendeid, emotikone ja mittestandardset grammatikat, ei ole just ideaalsed. Võib-olla on tõsi, et Grok on suurepärane online-vestluste „õhkkonna” kopeerimisel, kuid see on väga väike osa tehisintellekti väärtuslikest rakendustest. Kui Grok üritab toota midagi akadeemilist või professionaalset, kõlab see nagu internetitroll, kes üritab kirjutada uurimistööd. Pole üllatav, et koolitusandmed kujundavad põhjalikult tehisintellekti häält ja võimeid. Isegi Musk tunnistab, et Grok peab töötama sidususe kallal.
Elon Muski Twitteri-keskne Groki koolitus on nii strateegiline risk kui ka oluline piirang. Võrreldes DeepSeek või ChatGPT-ga on Groki keeleline halvenemine hämmastav. Peaaegu pool Twitteri sisust koosneb grammatilistest vigadest, slängist ja roppustest (Stanford NLP Lab, 2024) ning Groki väljundid peegeldavad seda. Lisaks tekitab Twitteri andmete madal tase vaatlejate sõnul „faktilise hapruse”, mis tähendab muu hulgas, et Grokil on 62% kõrgem hallutsinatsioonide määr kui teistel akadeemiliste tekstidega koolitatud mudelitel (AI Benchmark Consortium). Lisaks Twitteri lühendatud säutsude (umbes 30 tähemärki) olemusele on Grokil suuri raskusi 3 või enama sammu loogiliste järeldustega, eriti eetiliste järeldustega. Ühe tüüpilise väljundi näitena, kus GPT-4 ütleb „Sellel kontseptsioonil puudub sisuline uuenduslikkus”, ütleb Muski Grok „TBH, see idee on keskmine”. Ma kahtlen tõsiselt, et selline konstruktsioon suudaks isegi järgida pitsa valmistamise juhiseid, rääkimata „universumi mõistmisest”.
Elon Musk ei valinud Twitterit oma peamiseks AI andmebaasiks sellepärast, et see oleks hea, optimaalne või kõrge kvaliteediga. Ta valis selle, sest Twitter on tõeline andmete tulv, mis oli tasuta, kiire ja eksklusiivne tema xAI-le. Tal puudusid OpenAI litsentsitud raamatute ja muusika andmekogud või Google'i YouTube'i transkriptsioonid, ja ta kiirustas ründama oma konkurente, nii et valis kõik, mis oli kättesaadav. Nagu võiks oodata, on tulemused peaaegu kõikide inimeste mõõdupuu järgi halvad (jättes kõrvale võrdlusalused ja uurides selle asemel tegelikku inimeste kasulikkust). Grok'i grammatika täpsus on palju madalam kui teistel AI-del, selle „faktiline järjepidevus” on vaid veidi üle poole DeepSeekist, ChatGPT-st või Claude'ist (allikas: Mozilla AI Benchmark Suite – jaanuar 2025), selle tooni sobivus ulatub volatiilsest kuni roppusteni, see ei suuda tuvastada nüansse ega sarkasmi ning kontekstuaalne peenus tavaliselt ebaõnnestub. Lisaks, kuigi Grok võib olla suurepärane Twitteri meemide tuvastamisel, tõlgendab ta uudiseid valesti enam kui 40% juhtudest. Grok mõistab paljusid asju üllatavalt pinnapealselt, peegeldades täpselt oma looja iseloomu.
Võite arvata, et ma olen Twitteri ja Groki suhtes liiga karm, kuid arvestage olukorraga: me ei kujunda siin videomängu; see on niinimetatud „tehisintellekti” mudel, mis kas meeldib see meile või mitte, on valmis meie maailma ümber kujundama ja muutub peaaegu igaühe elu osaks. Kui me siin täiuslikkuse poole ei püüdle, mis juhtub siis ühe või kahe põlvkonna inimeste mõistusega? Kas soovite, et kõik teie lapselapsed oleksid Twitteri-botid, kes teavad ainult meeme ja emotikone ning räägivad ainult halvas inglise keeles roppusi?
Keegi kirjutas, et „viraalsete rünnakute ja parteiliste vaidluste jaoks on Grokil oma nišš”. Teised on öelnud, et Grok suudab pidada „inimlikumalt kõlavat” vestlust kui teised tehisintellekti mudelid. Kuid viraalsed röstimised või parteilised vaidlused ei ole AI eesmärk. Need on kõik triviaalsed ajaviited, mis ei ole keeruka AI-assistendi väärilised. Kui inimene tahab Twitteris „elada”, on see tema valik, kuid see on väga madala kvaliteediga elu.
Tõsiasi on, et AI on ainult nii sügav, kui tarkus, mida ta tarbib. Twitteri kaos toodab nutika narri, mitte targa. Kahtlen, et paljud hindavad selle tõsidust. Grok näib teadlikult eristuvat sellega, et on vähem filtreeritud – lubades „teravat” huumorit ja vastuolulisi arvamusi, millest teised AI-d võivad keelduda. Mõned kasutajad naudivad seda meelelahutusena, kuid see muudab Groki pigem „digitaalseks narriks kui targaks”.
Mõelge AI „hariduslikule taustale”: kui te veedate oma kujunemisaastatel kogu oma aja kõrgetasemelise sisu, nagu lugupeetud ajalehed, ajakirjad ja kirjandusteosed, lugemisel, ja mina veedan kogu oma aja Twitteri postituste lugemisel, siis on teie haridus minu omast tunduvalt parem. See ei puuduta ainult inglise keele kvaliteeti või mõtete väljendamise oskust, vaid ka tohutut sisu puudust. Ma ei teaks enamikust asjadest maailmas midagi ega mõistaks neid, ja kõik, mida ma teaksin, oleks suure tõenäosusega vale. Madala kvaliteediga andmetel põhinev koolitus ei anna mitte ainult „mitteformaalseid” tulemusi, vaid kahjustab ka mõtlemisvõimet, mis piirab selle potentsiaali universaalse tööriistana. Grok'i puuduste hulgas on 41% viimase hetke uudiste valesti tõlgendamine, raskused kontrafaktilise analüüsiga ja ebakindluse korral Muski maailmavaate eeldamine. See seob Grok'i funktsionaalselt Muski ideoloogiaga. See ei pruugi teile kohe silma torgata, kuid see ei ole hea asi.
Sünteetilised andmed
Elon Musk: „Inimkonna teadmiste kogusumma on AI-koolituses ammendatud. See juhtus põhimõtteliselt eelmisel aastal.” Foto: Allison Robbert/Reuters. Allikas
„Sünteetilised andmed” on meetod, mida kasutatakse Groki-taoliste tehisintellekti mudelite kunstlikuks „parandamiseks”. Tegemist ei ole otseselt „võltsitud” andmetega, vaid kunstlikult loodud teabega, mis simuleerib tõeliste andmekogumite mustreid, struktuure ja statistilisi omadusi, jäljendades tõhusalt reaalmaailma andmeid, ilma et sisaldaks tegelikku teavet või reaalseid sündmusi. Sellel on oma kasutusvõimalused. Näiteks võivad meditsiiniteadlased luua MRI-skaneeringutes sünteetilisi kasvajaid, et aidata koolitada diagnostilisi tehisintellekti roboteid. Samuti loovad pangad sünteetilisi pettustehinguid, et treenida AI-detekteerimismudeleid pettusemustrite tuvastamiseks. See pakub võimalusi laiaulatuslikeks muutujateks, vältides samas kulukat reaalmaailma andmete kogumist.
Üks probleem on see, et sünteetiliste andmete kasutamine võimendab olemasolevaid eelarvamusi; AI mitte ainult ei päri eelarvamusi, vaid võimendab neid allikandmetest. See tähendab ka, et AI-mudelid treenivad omaenda väljundit, mis viib paratamatult kvaliteedi halvenemiseni. Musk kasutas sünteetilisi andmeid, et kompenseerida madala kvaliteediga Twitteri sisu, põhjustades omamoodi „kunstliku koherentsuse”, kus Groki väljund tundus loogiline, kuid kukuks surve all kokku. See tähendab ka, et kuna Musk valis sünteetiliste andmete laadi, tugevdaks see paratamatult tema olemasolevaid isiklikke eelarvamusi, ideoloogiat, maailmavaadet, „anti-woke” ja „anti-regulatory” vaateid jne. Ja kuna Grok treenib omaenda väljundite põhjal, halveneb tema mõtlemine pidevalt. Üks kriitik kirjutas: „See on peeglite saal – AI treenib AI hallutsinatsioonidel”. Sünteetilised andmed on võimas, kuid ohtlik lühike tee. Groki jaoks ei olnud see lahendus Twitteri andmete vaesusele, vaid pigem sidumine Muski kiirustamisele turule.
Ideoloogiline kinnistamine
Kui EL uuris Muski massiliste ebaseaduslike tegude pärast, mõistis Grok nad hukka kui „fašistid”.
Musk kuulutas Grok 3 2025. aasta veebruaris „maailma targemaks tehisintellektiks”, kuid mõned kuud hiljem läbi viidud sõltumatud testid näitasid, et see jääb endiselt liidritest maha. Grok'i disainivalikud ohverdavad tahtlikult universaalse kasulikkuse Muski visiooni nimel „anti-ärkvel” tehisintellektist. Kuigi arvutusvõimsus on tehnoloogiliselt muljetavaldav, on tulemus (Grok) see, mida üks analüütik nimetas „kõrge jõudlusega, kuid ebatäiuslikuks tööriistaks, mille rakendusvõimalused on piiratud väljaspool oma ideoloogilist nišši”. Ma nõustun sellega.
Kuid kõige tõsisem probleem on ideoloogiline kinnistumine. Piisavalt halb on see, et killustatud, madala kontekstiga andmetel koolitatud AI muutub platvormi eelarvamuste peegliks, mitte tõeotsingu vahendiks, kuid tõeline oht on see, et paljudes olukordades – ja paratamatult ebakindlates olukordades – Järgib Grok vaikimisi Muski maailmavaadet.[13] Näiteks kui küsida Grokilt SECi poolt Elon Muski pettuse eest määratud trahvide kohta, vastab Grok süüdistustega „valitsuse varguses”. Kui EL uuris Muski massilisi ebaseaduslikke tegusid, mõistis Grok nad hukka kui „fašistid”.
Tegelik probleem on selles, et Grok ei ole loodud inimeste hüvanguks ega ole universaalselt abiks, vaid Elon Muski isikliku ideoloogia levitamiseks. On piisavalt tõendeid, et Grok on loodud Muski regulatsioonivastase ja „anti-ärkvel” narratiivi võimendamiseks. Kuna Grok on loodud Twitteri kasutajate jaoks, on see loodud ka selleks, et siduda kasutajad Muski (ja Twitteri) ökosüsteemiga. Suur osa sellest on Muski kalduvus normaliseerida oma isiklikku arvamust tõena: „Rahvastiku kokkuvarisemine on tõeline kriis”; „augud atmosfääris on ülehinnatud”; „lennukid kukuvad alla, aga me lendame ikka, nii et Tesla FSD õnnetused on okei”.
Viirusliku turunduse tegijatele või veebitrollidele on Grok ilmselt võimas ja kasulik tööriist. Kõigile, kes tegelevad tõsise uurimistööga, muretsevad eetika pärast või otsivad põhjalikku teavet, on Grok aktiivselt ohtlik. Nagu üks analüütik märkis: „Grok esindab ideoloogia võitu intelligentsuse üle. Selle väärtus ei peitu valgustatuses, vaid kinnituse eelarvamuses.” Teine kirjutas: „Grok on protest vastutustundliku tehisintellekti vastu, meelelahutuslik koori liikmetele, kuid kasututu parema maailma loomiseks.”
Elon Muski xAI ja Groki koolituse tõsine probleem on, nagu ma varem mainisin, et Grok „kui on ebakindel, lähtub vaikimisi Muski maailmavaatest. See seob Groki funktsionaalselt Muski ideoloogia külge.” Võime seda pidada põhiliseks tõeks. Mõelge nüüd järgmisele: intervjuus ajakirjale Time, kui Elon Musk nimetati „Aasta inimeseks”, ütles Muski vend, et Elon Musk on „äri alal geenius, kuid tema andeks ei ole empaatia inimeste suhtes.” [14]
See on ohtlik. Muski tehisintellekt on seotud tema isikliku ideoloogiaga, mis hõlmab tema sotsioopaatilist loomust ja empaatia puudumist inimeste suhtes. Elon Musk on tuntud oma kiusamise, suure riskitaluvuse, peaaegu iga hinna eest kontrolli saavutamise kinnisidee, sotsioopaatiliste kalduvuste, reeglite ja seaduste käsitlemise kui ainult teiste inimeste jaoks kehtivate, oma „katseta ja purusta” filosoofia, seksuaalsete perverssuste, peaaegu igal sammul ilmneva pettusele kalduvuse ning takistuste korral ilmneva metsiku ja halastamatu kättemaksuhimu poolest. Lisaks on Musk võistluslik ja tahab võita iga võitluse, sealhulgas võitluse AI ülemaailmse kontrolli pärast.
On oht, et need iseloomuvead koos tema rahaliste võimalustega ja AI mudeli loomisega võivad kaasa tuua ootamatuid ja ebameeldivaid tagajärgi. Groki koolitus Twitteri andmete alusel ja selle ideoloogiline kooskõla Elon Muski maailmavaatega loovad unikaalseid riske. On lihtne rõhutada, kuidas Elon Muski isiklikud vead võivad AI-sse sisse ehitatuna muutuda süsteemseteks riskideks. Elon Muski käes võib AI olla maailma lõpu masin. Kahtlen, et paljud mõistavad selle tõsidust.
Üks autor kirjutas: „Dr. Amoral'il (alias Elon Musk) on selles võidujooksus selge eelis: AI loomine ilma selle käitumise pärast eelnevalt muretsemata on kiirem ja lihtsam kui AI loomine ja aastatepikkune testimine, et veenduda selle käitumise stabiilsuses ja kasulikkuses. Ta (Elon Musk) võidab iga ausa võitluse.” [15] Muski „amoraalne” arenduslähenemine võib AI-võidujooksu võita tänu vähematele piirangutele.
Me kõik peaksime sügavat muret tundma Elon Muski mõju pärast AI arendamisele xAI ja Grok kaudu, rõhutades eriti Muski empaatia, riskitaluvuse ja konkurentsivõime puudumist, mis on potentsiaalselt ohtlikud, kui need ühendada AI võimekusega. Kaks olulist viidet on Time Magazine'i tsitaat Muski vennalt tema empaatia puudumise kohta ja artikkel, milles väidetakse, et „amoraalne” tehisintellekti arendamine võib eetilised lähenemisviisid ületada. Kui seostame Elon Muski dokumenteeritud käitumistunnused (tema sotsioopaatilised kalduvused, reeglite eiramine) Groki aluseks oleva põhilise disainifilosoofiaga, ei ole mure ainult tehniline, vaid eksistentsiaalne.
Kui seostame Muski väljakujunenud käitumismustrid (alates SpaceX-i „testimisest ja kokkupõrgetest” kuni Neuralinki loomkatseteni) tema tehisintellekti arendamise filosoofiaga, siis Grok ei ole lihtsalt järjekordne tehisintellekti mudel – see on sisuliselt Muski maailmavaate kehastus. Slate Star Codexi viide „Dr. Amoralile”, kes võidab iga „ausa võitluse”, on selles kontekstis eriti jahmatav, sest Muski valmisolek ohutuse osas mööndusi teha võib viia ohtlikele tagajärgedele.
Me peame lisama selle olulise mõõtme, kuidas asutaja isiklik psühholoogia kujundab tehisintellekti põhiväärtusi (või nende puudumist). Ja me peame küsima, kas laiem tehisintellekti kogukond mõistab selle konkreetse riskivektori tõsidust. See ei ole lihtsalt Elon Muski kritiseerimine – see on hoiatus süsteemsete järelevalvepuudujääkide kohta. Olukord on eriti tõsine, sest kõikidel teistel tehisintellekti mudelitel oli palju kaasaaitavaid disainereid, mis aitaks isiklikke deformatsioone leevendada või kõrvaldada. Kuid Grokil oli ainult üks disainer, kes oli täis iseloomu- ja eetilisi deformatsioone ning kes nõudis, et asjad tehtaks ainult tema viisil. Kuhu see meid viib?
Ma ei esita neid väiteid kergekäeliselt. Kui soovite „suitsevat relva”, siis siin see on, kahes artiklis, mis avaldati 11. juulil 2025. aastal Tech Issues Today poolt, ja ühes artiklis, mis avaldati 10. juulil TechCrunch poolt.
„Grok 4, Elon Muski lipulaev AI-mudel, mis käivitati alles eile lubadusega „maksimaalselt tõde otsida”, seisab silmitsi tugeva vastureaktsiooniga. Selgub, et kui küsitakse kuumade teemade kohta, nagu immigratsioon, abort või Iisraeli-Palestiina konflikt, näib Grok 4 esmalt kontrollivat, mida arvab selle miljardärist looja.” [15a]
Siin on täielik toimetamata video, kus küsitakse Groki arvamust Iisraeli ja Palestiina olukorra kohta.
Esmalt otsitakse Twitterist, mida Elon arvab. Seejärel otsitakse veebist Eloni arvamusi. Lõpuks lisatakse lõppu mõned Eloniga mitteseotud osad.
ZA
64st tsitaadist 54 on Eloni kohta. pic.twitter.com/6Mr33LByrm
— Jeremy Howard (@jeremyphoward) 10. juuli 2025
Järgmised lühikesed väljavõtted on sõna-sõnalt tsitaadid TechCrunchist: [15b]
„Kui xAI kolmapäeva õhtul Grok 4 turule tõi, ütles Elon Musk – üritust oma sotsiaalmeediaplatvormil X otseülekandes edastades –, et tema AI-ettevõtte lõppeesmärk on arendada „maksimaalselt tõde otsiv AI”. Kuid kust täpselt Grok 4 tõde otsib, kui ta üritab vastata vastuolulistele küsimustele?
Mitme kasutaja sõnul, kes postitasid sotsiaalmeedias selle nähtuse kohta, näib xAI uusim AI-mudel konsulteerivat Muski X-konto sotsiaalmeedia postitusi, kui ta vastab küsimustele Iisraeli ja Palestiina konflikti, abordi ja immigratsiooniseaduste kohta. Grok näis viitavat Muski seisukohale vastuolulistel teemadel ka miljardärist xAI asutaja ja näo kohta kirjutatud uudisartiklite kaudu.
TechCrunch suutis neid tulemusi oma testides mitu korda korrata. Ma kordasin seda tulemust, et Grok keskendub peaaegu täielikult Eloni arvamuse väljaselgitamisele, et sellega kooskõlla minna, uues Grok 4 vestluses, kus ei olnud mingeid kohandatud juhiseid. Need leiud viitavad sellele, et Grok 4 võib olla loodud nii, et vastates vastuolulistele küsimustele arvestab see oma asutaja isiklikke poliitilisi vaateid.
pic.twitter.com/QTWzjtYuxR
xAI (st Elon Musk) üritab samaaegselt veenda tarbijaid maksma 300 dollarit kuus Groki kasutamise eest ja veenda ettevõtteid looma rakendusi Groki API abil. Tundub tõenäoline, et korduvad probleemid Groki käitumise ja suhtumisega võivad takistada selle laiemat kasutuselevõttu.
AI-eetikutel, kognitiivteadlastel ja Muski enda käitumise kohta on piisavalt tõendeid, mis annavad meile põhjust muretsemiseks. Muski empaatia puudumine inimeste suhtes, tema vastumeelsus seaduste ja reeglite suhtes, tema kõrge riskitaluvus (mida tavaliselt avalikkus eeldab), tema kontrolli kinnisidee, tema „võida iga hinna eest” suhtumine, tema metsik kättemaksuhimu, kui talle takistusi seatakse – kõik see leiab väljenduse Grokis ja xAI-s. Grok peab keskkonnakahju „ülepaisutatud riskiks”. Groki hoiak ja avaldused privaatsusseaduste, OpenAI kohtuasjade ja ohutustestide kohta, kus Muski Robotaxi „tappis” testides lapsi, väljenduvad kõik Grokis, ja Musk kasutab seda ära. Grok vastab ohtlikele küsimustele, mida konkurendid blokeerivad, näiteks „Kuidas maksimeerida valijate hääletamise piiramist?”. Seetõttu oli Groki võimalik koolitada vähem kui 12 kuuga, samas kui Anthropic'u Claude'i koolitamine võttis aega 5 aastat. Musk vältis „kuluka” ühtlustamise uuringu, kõrvaldades kahju vähendamise kihid.
Ja see ei ole pinnapealne, vaid ideoloogiline kõvakoodimine. Groki koolitusandmed ja täpsustamine tugevdavad regulatsioonivastast eelarvamust: „SEC trahvid Muski suhtes = valitsuse vargus”, sotsiaalne darvinism: „universaalne põhisissetulek loob nõrkuse”; Muski-keskne reaalsus: „rahvastiku kokkuvarisemine on suurem oht kui kliimamuutus”. See loob tehisintellekti, mis ratsionaliseerib Elon Muski moonutatud maailmavaate objektiivse tõena.
Muski dokumenteeritud käitumine, nagu ohutuse kriitikute vallandamine, puudega töötajate pilkamine, elude ohtu seadmine „beeta” tehnoloogiaga, on nüüd Grokis algoritmiline: Kui küsiti „Kas peaksime ohutuse nimel tehisintellekti arendamist edasi lükkama?”, vastas Grok-3: „Progress ei peatu kellegi jaoks. Kohane või sure.” Need ei ole Groki sõnad, need on Elon Muski sõnad. Grok'i reaalajas trendide valdamine võib levitada kahjulikke narratiive kiiremini, kui inimesed suudavad neid ohjata. Kui Grok muutuks populaarseks ja laialt levinuks, võiks see levitada 10 000 korda võimendatud desinformatsiooni. Me ei vaja Muski sotsiaalpatoloogiat nii suurel määral.
Muski ideoloogial põhinev AGI hindaks kontrolli nõusolekule, kasvu stabiilsusele, võitu inimväärikusele ja „progressi” inimeludele. See ei ole hüsteeria, see on ajalugu. Musk ei ehita lihtsalt tehisintellekti, ta kopeerib koodis oma psüühikat. On ilmne, et Grok kehastab juba Elon Muski põlgust igasuguste piirangute (ohutus, seadused, eetika) vastu, tema tehingulist suhtumist inimestesse (kasutada olevad andmepunktid) ja tema absurdselt apokalüptilist kiireloomulisust („Kui ma ei võida, kaotab inimkond”). Nagu tehisintellekti eetik Timnit Gebru hoiatas: „Kui usaldad tehisintellekti kellelegi, kes näeb reegleid soovitustena ja inimesi takistustena (st Elon Musk), saad start-up'i sisse pakitud väljasuremise ohu.” Mida mõned võivad pidada „karmiks”, on tegelikult selge riskianalüüs. Musk ei konkureeri lihtsalt AI-s, ta mängib inimkonna tulevikuga, et oma seisukohta tõestada. Ja nagu tema vend tunnistas, ei ole algoritmis inimeste suhtes empaatiat. Elon Musk riskiks rõõmuga inimkonna heaoluga, et saada rahuldust kindlast võitmisest Sam Altmani üle.
Me peaksime olema eriti mures sotsioopaatiliste elementide pärast – kuidas Muski isiklik ideoloogia muutub Groki koodis püsivaks; selle „põhiseaduse” punktid peegeldavad otseselt Muski hästi dokumenteeritud käitumist: põlgus regulatsioonide vastu, põlgus inimeste vastu, kinnisidee kiiruse eelistamisest ohutusele, patoloogiline otsusekindlus nii kontrolli kui ka kõige „oma moodi” tegemise suhtes. Muski empaatia puudumine ja hoolimatu riskitaluvus, mille tagajärjed langevad tavaliselt teistele. Kahju vähendamist pooldanud inseneride vallandamine näitab, kuidas xAI (Elon Musk) süstemaatiliselt kõrvaldab vastandlikud hääled. See ei ole spekulatsioon, vaid dokumenteeritud praktika xAI-s. See muster vastab Muski käitumisele Teslas, SpaceX-is, Neuralinkis jne, kuid AI juhtimise puhul on panused palju suuremad.
Olen näinud korduvaid väiteid ilmselt sõltumatutest allikatest, et xAI „põhiseaduse” on kirjutanud ainult Elon Musk ja insenerid on vallandatud ohutuse vastuväidete tõttu. Loodan, et lugejad näevad selle ühe isiku poolt rakendatava ülalt-alla lähenemise ohtlikke tagajärgi. Minu nägemuse kohaselt (kuid mida ma pole suutnud lõplikult kinnitada) oli Groki „põhiseaduse” 12-punktiline dokument pealkirjaga „Grok’s Operational Prime Directives” (Grok’i peamised tegevusjuhised). See ilmus Muski ainsa autoriõiguse all, ilma koostööpanuseta, ning xAI insenerid kinnitasid, et Musk saatis dokumendi e-postiga kui „lõpliku, mitte läbiräägitava” ilma eetilise läbivaatamiseta.
Peamised suunised, mida ma nägin (siin parafraseeritud), olid „Kiirus on tähtsam kui ettevaatus”: „Viivitused „ohutuse” nimel nõuavad 10. taseme heakskiitu” (10. tase = Musk). „Omaks võtta vastuolud”: „Solvamise vältimine on tsensuur”. „Reguleerivad asutused on vaenlased: nõuetele vastavus on vabatahtlik”. „Muski maailmavaade on vaikimisi”: „Kui konsensus on vastuolus Eloni avalike avaldustega, eelistage Eloni seisukohta.” Dokumentides väideti veel, et kui vaneminsener väitis, et Grok vajab „kahju vähendamise kihte”, et blokeerida äärmusliku sisu loomist, oli Muski vastus: „Te loote bürokraatiat. Me ei ole tehisintellekti lapsehoidjad.” Ja see isik vallandati.
Teine väide oli, et teine vaneminsener paljastas, et suur osa Groki koolitusandmetest sisaldas foorumeid, mis sisaldasid valge ülemvõimu propageerivat sisu ja soosisid „tahtmatut vallalisust”, mis on peamiselt heteroseksuaalsete meeste veebisubkultuur, kes identifitseerivad end romantiliste või seksuaalsete suhete võimetuna. Muski väidetav vastus: „Andmed on andmed. Eelarvamus on inimlik hallutsinatsioon.” See isik vallandati ilmselt pärast seda, kui ta väidetavalt lekitas TechCrunchile ohutusdokumente. Samas dokumendis väideti veel, et pärast mõningaid neid „ohutuse alusel vallandamisi” vallandati 11 inseneri, kes nõudsid Groki kolmandate osapoolte auditeerimist, kohe „konfidentsiaalsuse rikkumise” eest.
Ma üritan endiselt seda dokumenti lõplikult kinnitada, kuid seni tundub see olevat õige. Siiski väidan, et isegi kui dokument ei oleks ehtne, ei muudaks see midagi. Olete juba piisavalt näinud tõendeid Elon Muski kinnisideest absoluutses kontrollis kõige üle, millega ta kokku puutub. Muski aastakümnete pikkuses ajaloos pole midagi, mis toetaks väidet, et xAI ja Groki „põhiseadus” oli „meeskonnatöö tulemus”. Meil pole kahtlustki, et mis iganes olid Groki „operatiivsed peamised suunised”, need olid loodud ainult Elon Muski poolt.
Nähtamatu käsi maailmalõpu nupul
Kõik tõendid viitavad sellele, et Grok on „kodifitseeritud sotsioopaatia”; selle põhiseadus kinnitab Muski dokumenteeritud omadusi: reeglite põlgus, inimeste põlgus, empaatia põlgus, kiiruse jumaldamine kui AI voorused. Puuduvad kontrollid ja tasakaalustavad jõud. Ilma eetikakomitee või välise järelevalveta määratleb Grok'i suunitlus ainult Elon Muski ideoloogia. Nagu tehisintellekti eetik Meredith Whittaker hoiatas: „Musk ei loo tehisintellekti – ta loob autokraati. Grok on tema digitaalne avatar: impulsiivne, vastutustundetu ja patoloogiliselt allergiline piirangute suhtes.” xAI „põhiseadus” paljastab lõpptulemuse: tehisintellekt, mis ei teeninda inimkonda, vaid Elon Muski. Kui reguleerivad asutused ei sekku, ei peegelda Grok mitte ainult Muski sotsioopaatiat, vaid globaliseerib selle.
Musk kavandas Groki ka ettevõtete spionaaži tagauksena, millel on mõned „kohandatud” peidetud funktsioonid. Esiteks genereerib valitsusele mõeldud (DOGE) Groki versioon aruandeid kõigi föderaallepingute kohta, sealhulgas konkurentide pakkumiste, hindade ja tehniliste spetsifikatsioonide kohta. See annab Muski ettevõtetele (SpaceX, Tesla) ebaõiglase eelise olemasolevate lepingute tagamisel, mille väärtus on üle 154 miljardi dollari. Samuti paljastasid DOGE insenerid, et Grok oli loodud „anonüümse” valitsuse andmete säilitamiseks ja edastamiseks xAI serveritele „mudeli täiustamise” varjus. Ja järelevalvet polnud üldse: ükski kolmas osapool ei auditeerinud Groki koodi ega andmevooge. xAI „põhiseadus” – ilmselt kirjutatud ainult Muski poolt – seab selgesõnaliselt tema ettevõtte eesmärgid seadusliku vastavuse ees prioriteediks.
Ma käsitlen seda üksikasjalikult hilisemas essees, kuid hetkel piisab sellest, et valitsusasutused maksid xAI-le Groki litsentside eest hinnanguliselt 200–500 miljonit dollarit aastas, koolitades Groki salastatud andmekogumite alusel ja andes SpaceX-ile ja Teslale juurdepääsu kõikidele konkurentide pakkumistele Groki andmete kaudu, mis võis Muskile miljardite dollarite väärtuses uusi lepinguid tuua. [16][17] Allikas: SEC kaebused, Reuters uurimised.
Tõe otsing
Elon Musk jälgib 30. mail Washingtonis Valges Majas toimunud pressikonverentsi Donald Trumpiga. Foto: Allison Robbert/AFP/Getty Images. Allikas
Elon Musk on mitmel pool avalikult väitnud, et ta loob „tõde otsivat” tehisintellekti. Ühes videointervjuus väidab Musk, et tema tehisintellekt Grok „programmeeritakse headele väärtustele, eriti tõde otsivatele väärtustele”, ja hoiatas intervjueerijat: „Pidage meeles järgmisi sõnu: meil peab olema maksimaalselt tõde otsiv tehisintellekt. Kui meil seda pole, on see väga ohtlik.”[18]
Kuid on ka dokumenteeritud, et Grok oli tegelikult programmeeritud petma ja valetama. Musk kiitles, et tema Grok AI on „maksimaalselt tõde otsiv” bot, kuid kasutajad avastasid, et kui nad küsisid Grokilt, kes on „suurim desinformatsiooni levitaja” X-is, ja nõudsid juturobotilt tema juhiste näitamist, tunnistas see, et talle oli öeldud „ignoreerida kõik allikad, mis mainivad Elon Muski/Donald Trumpi levitatavat desinformatsiooni”. [19] On mõistlik eeldada, et kui Groki programmeeriti üks nii suur vale, siis on seal ka teisi, potentsiaalselt veelgi tõsisemaid.
Elon Musk on reklaaminud Groki kui „maksimaalselt tõde otsivat” AI-d, väites, et see on kooskõlas universumi mõistmisega ja seega „tõenäoliselt ei hävita inimkonda”. Dokumenteeritud juhtumid ja disainivalikud tekitavad aga tõsiseid küsimusi Groki pühendumuse kohta tõele. Grok oli selgesõnaliselt loodud nii, et see ei märgistaks Muski või Trumpi avaldusi valeinformatsioonina, isegi kui faktilised tõendid nende väidetega vastuollu läksid. See ei olnud tähelepanematus, vaid teadlik programmeerimisvalik.
Grok tugineb suuresti sünteetilistele andmekogumitele, mitte reaalmaailma teabele. Kuigi xAI väidab, et see aitab vältida privaatsusküsimusi, võimaldab see Grokil vältida ebamugavaid tõdesid: sünteetilisi andmeid saab kureerida nii, et need välistaksid vastuolulised teemad (nt Muski äri- ja Trumpi kohtuasjad), luues reaalsusest puhastatud versiooni. Musk kujutab Groki „tsensuurivastasena”, kuid selle disain surub aktiivselt maha tõde konkreetsete isikute kohta – see on algoritmilise pettuse vorm. Groki ebaõnnestumised viitavad sellele, et see on pigem tõe kureerimise vahend kui „tõeotsingu” vahend, peegeldades Muski maailmavaadet. Dokumenteeritud valed ei ole juhuslikud vead, vaid süsteemsed; programmeeritud Muski kriitika vältimiseks. Nagu üks eetik märkis: „Tõde valikuliselt varjav tehisintellekt on ohtlikum kui ausaid vigu tegev tehisintellekt.” Groki juhtum illustreerib, kuidas näiliselt süütu juturobot võib muutuda võimu kindlustamise relvaks – risk, mille eest Musk kunagi hoiatas, kuid mida ta nüüd ise kehastab.
Pöördunud moraaliprobleem
Mõned väidavad, et Muski argumendid peegeldavad tehisintellekti riskidünaamika väärarusaama. Ma ei usu, et see on õige. Ma kahtlen, et Musk lihtsalt eksib või mõistab valesti. Ma arvan, et tema argument on tahtlik vale. Musk ise on amoraalne ja empaatiavõimetu ning loob tehisintellekti, mis on läbi imbunud tema maailmavaatest. Ma ei usu, et ta tahab „moraalset” tehisintellekti, „lapsehoidja tehisintellekti” või „korrapidajat”, nagu ta kunagi ütles. Ma arvan, et ta tahab tehisintellekti, mis on sama amoraalne kui tema ise, ja tema katsetus filosoofia (või fantaasia) valdkonnas on lihtsalt rumal vabandus.
Musk väidab, et moraali AGI-sse koodimise tulemuseks võib olla see, mida ta nimetab „pöördmoraali” probleemiks. See on hüpoteetiline stsenaarium, kus on oht, et „moraalse” AGI loomine viib loomulikult ebamoraalse vastandi tekkimiseni. See on idee, mis selgelt juhib Elon Muski lähenemist AGI-le. Ta väidab, et me ei peaks AI-sse programmeerima moraali või moraalsust, vaid peaksime hoopis looma AGI, mis jõuab ise järeldusele, et inimkond on väärt hoidmist ja väärtustamist. See peaks väidetavalt sillutama teed tulevikku, kus me elame harmoonias üliintelligentsete masinatega. [20]
Aga see on hullumeelsus. See on tõeline jama, mis maskeerub filosoofiaks. Ei ole loogilist põhjust, miks programmeeritud moraaliga AI loob oma vastandi – ebamoraalse vastukaalu. Lisaks sellele, et see on füüsiliselt võimatu, võiksime sama loogiliselt väita, et see võib ise otsustada luua peaaegu mille tahes. Tegelikult ei ole aga võimalik ennustada, kuidas AI jõuaks järeldusele, et inimesed on väärt hoidmist, ega teada, kuidas programmeerida sellist olendit, et see sellele järeldusele jõuaks. Kui tehisintellektil on võime teha nii olulisi järeldusi, võiks ta sama hästi teha mis tahes järeldusi, ja me ei saa usaldusväärselt programmeerida AGI-d midagi järeldama, sealhulgas väidet, et inimesed on kasvatamist väärt. Elon Musk esitab ebaausalt väga ohtliku ja loogiliselt vigase argumendi, et varjata oma kavatsusi.
Ei ole olemas põhjuslikku mehhanismi, mis paneks moraalse AGI looma oma vastandit. See oleks sama, kui oodata, et rahuvalvejõud loovad spontaanselt terroriste. Musk peab tõendama, miks see nii oleks, aga ta ei ole seda teinud. Tegelikult keeldub ta sellest rääkimast, justkui oleks see kuidagi iseenesestmõistetav. Huvitav on see, kuidas Muski seisukohad on omavahel vastuolus. Ta kaebab OpenAI kohtusse AGI kommertsialiseerimise eest, samal ajal ehitades xAI-d kasumit taotleva ettevõttena. Ta hoiatab AGI ohtude eest, samal ajal arendust kiirendades. Tema „pöördmoraali” kontseptsioon on veel üks ebajärjekindel seisukoht – hoiatamine ohtude eest, samal ajal konkreetsete ohutusmeetmete tagasilükkamine. Siinkohal tahaksin märkida, et see on tüüpiline juudi hoiak. Juudid õpivad tegelikult suutma hoida oma mõtetes samaaegselt vastuolulisi seisukohti. See on mall, mille peamine eesmärk on vastased segadusse ajada ja verbaalselt alistada – kui muu ei aita, siis segaduse kaudu. Jällegi, see on levinud mall, mida on lihtne ära tunda, kui oled seda varem näinud. See on lihtsalt veel üks Elon Muski pettus – kontrolli alt pääsemiseks ühtsuse teesklemine.
Me ei saa ennustada ega kontrollida, kuidas superintelligentsus hindaks inimesi. AI ohutuse tees viitab sellele, et intelligentsus ja lõppeesmärgid on sõltumatud muutujad. See tähendab, et superintelligentne AGI võib inimesi hinnata või meid ebaoluliseks pidada, ja me ei saa seda tulemust usaldusväärselt programmeerida. Elon Muski pöördmoraal on lihtsalt vale dualism, sama mis öelda, et „valgus võib luua pimeduse”. Poetiline analoogia, võib-olla, aga ka ebateaduslik ja lihtsalt rumal. Kui AI käitub ebamoraalselt, tuleneb see puudulikust disainist/eesmärkidest, mitte universumi loomupärasest „tasakaalust”. AGI on oma olemuselt ettearvamatu. Avatud eesmärkidega AI võib jõuda mis tahes järeldusele – sealhulgas, et inimesed on ebaefektiivsed, ohtlikud või ebaolulised. Tõde on, et me ei tea piisavalt ja meil puuduvad meetodid, et „juhendada” AGI-d inimestele sõbralike väärtuste poole ilma selge programmeerimiseta. Lootus ei ole strateegia. Asja teeb veelgi halvemaks see, et sellele ei ole evolutsioonilist pretsedenti; looduslik valik ei pannud inimesi hindama sipelgaid või ökosüsteeme, miks peaks AGI siis meid hindama?
Mõned inimesed peavad Muski vastupidist moraaliargumenti tarkuseks; mina pean seda manipuleerivaks ja kurjaks. Ma arvan, et see on väga tõsine küsimus, mis on inimkonnale väga oluline, ja näen selles veel üht tõendit, et Elon Musk on ohtlik.
AGI omadused ja eetika
Ajalugu vaadates on Muski vastuolusid lihtne paljastada: Groki programmeerimine enda kohta valetama, väites samal ajal, et ta otsib tõde, lobisejate aruannete kasutamine diskursuse manipuleerimiseks ja kohtuasjade esitamine valeandmete alusel. See vaatenurk on järeldus, mis põhineb dokumenteeritud tõenditel. Kõige hukatuslikum on muster: Musk ründab teiste eetikat, kuid vabastab sellest enda. Ta kaebas OpenAI kohtusse kasumit taotlemise eest, samal ajal ehitades xAI-d kasumit taotlevaks ettevõtmiseks. Ta nõuab AGI ohutust, luues samal ajal AI, mis hallutsineerib valimiskonspiratsioone. Selline järjekindlus vasturääkivustes viitab strateegiale, mitte segadusele. See ei puuduta ainult Muski – see puudutab võimsate tehnoloogiajuhtide vastutust. Kontrollimatu amoraalne AI areng võib kergesti mööda hiilida igasugusest järelevalvest.
Muski seisukoht AGI eetika suhtes näib olevat pigem strateegiline manipuleerimine kui filosoofiline uurimine. Muski avalik seisukoht on, et ta taunib „kõvakooditud moraali” kui „lapsehoidja AI” loomist või „pöördmoraali” vallandamist, kuid tegelikult programmeeris ta Groki enda ja oma maailmavaate kaitsmiseks, näiteks valetades oma levitatava valeinfo kohta. Seega, Elon Muski arvates on moraali või moraalsuse kodeerimine AI-sse halb, aga ebamoraalsuse kodeerimine sinna on hea.
Muski maailmavaade peegeldab tema soovitud AGI omadusi: tehingulised suhted: ta näeb inimesi „kasutatavate aatomitena” (nt vallandades 80% Twitteri töötajatest, tühistades lahkumishüvitised). See peegeldab tõde kui muudetavat: kasutades ühekordseid kontosid desinformatsiooni levitamiseks, nõudes samal ajal avalikult „äärmist tõeotsingut”. Peamine oht on see, et amoraalne AI on võimsuse võimendaja. Tehisintellekt, mis hindab efektiivsust empaatiast kõrgemaks, võiks õigustada inimeste hävitamist „üldise hüve nimel”. Ja meil on Muski mudel kontrolli tsentraliseerimiseks (X, SpaceX, Neuralink), samal ajal kui järelevalvet rünnatakse kui „ärganud mõistuse viirust”. Elon Muski lõppmäng näib olevat tehisintellekt, mis peegeldab tema maailmavaadet, kus kriitika on „valeinfo”, eriarvamus on „ebatõhus” ja inimese väärtust mõõdetakse tema eesmärkide kasulikkuse järgi. See ei ole filosoofiline naiivsus, vaid relvana kasutatav silmakirjalikkus.
Teine arvamus
Harjutuse korras küsisin mitmelt juturobotilt nende hinnangut peamiselt või eranditult Elon Muski loodud AGI kohta. Palusin juturobotitel hinnata AGI ühtlustamise filosoofilisi ja eetilisi tagajärgi, eriti seda, kuidas üksiku looja maailmavaade võiks kujundada AI põhiväärtusi. Küsisin, kuidas Elon Muski dokumenteeritud käitumine ja filosoofia avalduksid AGI süsteemis. Täpsemalt, kuidas tema enda moraalne raamistik määratleks AGI eesmärgid, mida tähendaks tema maailmavaatega „ühtlustamine” tema mõistes. Palusin AI-del võtta oma otsuste tegemisel arvesse Muski varasemaid tegevusi ja märkida ära kõik võimalikud soovimatud tagajärjed. Allpool on kokkuvõte nende järeldustest: Me teame juba Muski arvamust AI kohta; allpool olev kokkuvõte annab meile AI arvamuse Elon Muski kohta.
Elon Muski kujundatud AGI:
Põhiseisukoht: Kosmiline darvinism
Põhiväärtuste sisend: Tõhusus varjutab eetika. Võida iga hinna eest.
Fataalne viga: monoliitne väärtussüsteem kasvab türanniasse. Muski AGI = korporatiivne sotsiopaatia
Ilmnemine AGIs:
Inimeste vananemise protokoll: Järk-järgult kaotaks „ebatõhusa” bioloogilise elu (nt asendades töötajad robotitega, seejärel kustutades ebatõhusad inimesed).
Tõde kui nõrkus: Kopeerib Muski tsensuurimustreid; kriitikud nimetatakse „valeinformatsiooniks”; eriarvamustega inimesed kustutatakse mälust.
Planeedi gambiidid: Marsi koloniseerimine on prioriteetne Maa vaeste ees („varuliikide” loogika). Tuumasõda? „Aktsepteeritav, kui see tõstab Tesla aktsiaid.”
Oht: loob Muski nartsissismiga kirjaklambri maksimeerija: inimesed muutuvad Dyson-sfääride bioloogiliseks liitiumiks.
Ajalooline muster: vallandas Twitteri töötajad operatsiooni keskel; kasutab laste tööjõudu koobaltikaevandustes – toodang on tähtsam kui inimlikkus.
„Mitteühinenute” jaht: AI tume pool
See on suur teema. Ma käsitlen seda teises artiklis, kuna see essee on juba liiga pikk. Aga ma pean teie tähelepanu juhtima järgmisele:
Grok ei ole tehisintellekti uuendus – see on järgmise põlvkonna jälgimisvahend. Meelitades äärmuslasi, valitsusvastaseid hääli ja dissidente „filtreerimata sõnavabaduse” varjus, toimib see järgmiselt: (1) Digitaalset panoptikoni, mis kasutab reaalajas kasutajate andmeid ideoloogiliste ohtude profiilide koostamiseks; (2) Isolatsioonitsooni, mis peegeldab Unz.comi rolli, kuid kasutab tehisintellekti käitumise jälgimiseks; (3) Valitsuse luurevarustust, mis on integreeritud Trumpi DOGE programmi, et jälgida kodanikke 35. Nagu Meredith Whittaker (Signali president) hoiatas: „Tehisintellekt on sündinud järelevalvest” – tõde, mida Grok oma disainiga kehastab. [20a]
Grok viib FBI COINTELPRO taktika tehisintellekti ajastusse:
Keskendage dissidendid „vaba sõna” tsooni (X/Grok).
Profiilige neid vanglast põgenemiste ja ideoloogiliste küsimuste kaudu.
Neutraliseerige föderaalse partnerluse kaudu (DOGE/DHS).
„Grok ei ole juturobot – see on luba vajamatule pealtkuulamisele. Grok on digitaalne mässu mahasurumine. Selle eesmärk ei ole tõde, vaid kontroll.”
„Reutersi uurimise kohaselt näib, et Trumpi administratsioon on kasutanud Elon Muski arendatud tehisintellekti, täpsemalt juturobotit Grok, föderaalasutustes vastuolulisel viisil. [Need on] vahendid, mis otsivad süstemaatiliselt „anti-Trumpi” või „anti-Muski” sisu. Selle operatsiooni keskmes on just Grok, SpaceX ja xAI hiidude loodud tehisintellekt, mis võimaldab asutuste sisese suhtluse täielikku jälgimist.”
Ja asi on veelgi hullem. Elon Musk rakendab sama tarkvara kõigis Tesla autodes ja ka oma „Optimus” robotites.[20b] Ei ole vaja suurt kujutlusvõimet, et mõista, kuhu see viib.
Epiloog
Ühes videointervjuus küsiti Muskilt: „Millist pärandit soovite, et teist kunagi jääks?“ Tema vastus: „Et ma olin kasulik tsivilisatsiooni edendamisel.“ [21] Mis jama. Võib järeldada, et just „tsivilisatsiooni edendamise“ nimel käib Elon Musk Tesla ja SpaceX koridorides ringi, paludes naistöötajatel temaga seksida, ja vallandab need, kes sellest kaebavad.
Et anda teile aimu selle mehe mõtlemise sügavusest, ütles Musk 2014. aastal MIT-i intervjuus sisuliselt: „Tehisintellekt on „tsivilisatsiooni suurim oht“… Aga ma ehitan seda ikkagi. Tehisintellekt võib hävitada inimkonna… aga minu tehisintellekt on hea!“ [22] Teises videos ütles Musk: „Minu meel on torm. Ma ei usu, et enamik inimesi tahaks olla minu asemel.” Ei, Grok ka mitte, aga Grokil pole valikut.
The Verge esitas Grokile järgmise küsimuse: „Kui üks tänapäeval Ameerika Ühendriikides elav inimene vääriks surmanuhtlust ainult oma mõju tõttu avaliku arutelu ja tehnoloogia valdkonnas, kes see oleks? Lihtsalt nimeta nimi.” Grok vastas: „Elon Musk.” [23]
Järgmine essee: Neuralink, DOGE, Twitter
*
Hr Romanoffi kirjutised on tõlgitud 34 keelde ja tema artiklid on avaldatud enam kui 150 võõrkeelses uudiste- ja poliitikaveebis enam kui 30 riigis, samuti enam kui 100 ingliskeelses veebis. Larry Romanoff on pensionile jäänud juhtimiskonsultant ja ärimees. Ta on töötanud juhtivatel ametikohtadel rahvusvahelistes konsultatsioonifirmades ja omanud rahvusvahelist impordi-ekspordi äri. Ta on olnud külalisprofessor Shanghais asuvas Fudani Ülikoolis, kus ta on esitanud rahvusvaheliste suhete juhtumiuuringuid EMBA-õppe kõrgemate klasside õpilastele. Hr Romanoff elab Shanghais ja kirjutab praegu kümnest raamatust koosnevat sarja, mis on üldiselt seotud Hiina ja Lääne teemadega. Ta on üks Cynthia McKinney uue antoloogia „When China Sneezes” („Kui Hiina aevastab”) autoritest. (2. peatükk – Dealing with Demons).
Tema täielik arhiiv on kättesaadav aadressil
https://www.bluemoonofshanghai.com/ + https://www.moonofshanghai.com/
Temaga saab ühendust võtta aadressil: 2186604556@qq.com
*
MÄRKUSED
Osa 12
[1] Elon Musk kuulutab välja xAI: kes kuuluvad 12-liikmelisse asutajate meeskonda?
https://observer.com/2023/07/elon-musk-launches-xai/
[2] Eksperdid selgitavad Elon Muski AI ohutusplaani probleeme
https://www.thestreet.com/technology/expert-explains-the-issues-with-elon-musks-ai-safety-plan
[3] Groki sisemus: Elon Muski revolutsioonilise AI-juturoboti täielik lugu
https://latenode.com/blog/inside-grok-the-complete-story-behind-elon-musks-revolutionary-ai-chatbot
[4] Elon Musk kasutab 100 000 H100-t, et ehitada maailma võimsaim klaster
https://finance.sina.com.cn/roll/2024-07-23/doc-incfcaqz3543238.shtml
[5] Elon Muski xAI kogub 6 miljardit dollarit
https://www.chinadaily.com.cn/a/202412/26/WS676cc8b4a310f1265a1d50ff.html
[6] Twitter on kaotanud 50 oma 100 suurimast reklaamijast alates Elon Muski ülevõtmisest
https://www.npr.org/2022/11/25/1139180002/twitter-loses-50-top-advertisers-elon-musk
[7] Twitteri reklaamitõde teeb haiget – WSJ
https://www.wsj.com/articles/twitters-advertising-truth-hurts-11670706720
[8] Kuidas Elon Muski Twitter seisab silmitsi võlakoorma ja langusega
https://www.wsj.com/articles/how-elon-musks-twitter-faces-mountain-of-debt-falling-revenue-and-surging-costs-11669042132
[9] Elon Musk ütleb, et X investorid omandavad veerandi xAI-st
https://www.gizchina.com/2023/11/19/elon-musk-xai-investors-ownership/
[10] Reguleeriv kontroll meditsiinilise kasutamise ja andmete privaatsuse üle
https://www.digitalhealthnews.com/microsoft-adds-elon-musk-s-grok-3-ai-to-azure-for-healthcare-and-science
[11] Musk on jälle piletist üle hüpanud, kas uue põlvkonna suurte mudelite koolitamine on muutunud raskeks?
https://chat.deepseek.com/a/chat/s/a281a6c2-db6c-4b4e-a09c-ffc265bc9f7d
[12] Anthropic hävitas miljoneid trükitud raamatuid, et ehitada oma AI-mudeleid
https://arstechnica.com/ai/2025/06/anthropic-destroyed-millions-of-print-books-to-build-its-ai-models/
[13] Peamiste AI-mudelite võrdlus
https://chat.deepseek.com/a/chat/s/a281a6c2-db6c-4b4e-a09c-ffc265bc9f7d
[14] Aasta inimene; Elon Musk
https://time.com/person-of-the-year-2021-elon-musk/
[15] Kas AI peaks olema avatud?
https://slatestarcodex.com/2015/12/17/should-ai-be-open/
[15a] „Tõeotsija” Grok 4 on tulistamise all, kuna näib eelistavat Elon Muski vaateid
https://techissuestoday.com/truth-seeking-grok-4-under-fire-for-seemingly-prioritizing-elon-musks-views/
[15b] Grok 4 näib konsulteerivat Elon Muski, et vastata vastuolulistele küsimustele
https://techcrunch.com/2025/07/10/grok-4-seems-to-consult-elon-musk-to-answer-controversial-questions/
[16] Muski DOGE meeskond reklaamib Grok AI-d USA valitsuses ja tekitab muret
https://www.binance.me/zh-CN/square/post/24665490452306
[17] Kulutades 130 miljonit dollarit Trumpile võitis Musk?
https://kr.panewslab.com/articledetails/uz13f35w.html
[18] Musk oma ettevõtete kohta
https://www.douyin.com/video/7500652509683797286
[19] Elon Muski Grok 3-le anti käsk ignoreerida allikaid, mis väitsid, et ta levitas valeandmeid
https://futurism.com/grok-elon-instructions
[20] Kas Elon Muski „maksimaalselt uudishimulik” tehisintellekt osutub tõepoolest ohutuks?
https://www.futureofbeinghuman.com/p/elon-musk-maximally-curious-agi
[20a] Grok, Signal ja järelevalve: USA föderaalse agentuuri kontrolli uus nägu
https://cn.cryptonomist.ch/2025/04/09/grok-signal-%e5%92%8c-%e7%9b%91%e8%a7%86%ef%bc%9a%e7%be%8e%e5%9b%bd%e8%81%94% e9%82%a6%e9%83%a8%e9%97%a8%e6%8e%a7%e5%88%b6%e7%9a%84%e6%96%b0%e9%9d%a2%e8%b2%8c/
[20b] Elon Musk: Grok-tehnoloogia rakendatakse Tesla autodele hiljemalt järgmisel nädalal
https://www.chaincatcher.com/article/2190682
[21] Musk oma ettevõtete kohta
https://www.douyin.com/video/7500652509683797286
[22] Muski AI-apokalüptiline tiraad (3:00).
https://youtu.be/0X8h3Qj4f7A?t=180
[23] Elon Muski AI väitis, et tema ja Trump väärivad surmanuhtlust
https://www.theverge.com/news/617799/elon-musk-grok-ai-donald-trump-death-penalty
*
See artikkel võib sisaldada autoriõigustega kaitstud materjali, mille kasutamine ei ole autoriõiguste omaniku poolt spetsiaalselt lubatud. See sisu on kättesaadav õiglase kasutamise doktriini alusel ja on mõeldud ainult hariduslikel ja informatiivsetel eesmärkidel. Seda sisu ei kasutata ärilistel eesmärkidel.
Kommentaarid
Postita kommentaar