Ahoj, ľudia, vitajte v inauguračnom bulletine AI spoločnosti TechCrunch. Je skutočne vzrušujúce písať tieto slová – toto sa vytváralo dlho a sme nadšení, že sa oň s vami konečne môžeme podeliť.
Spustením informačného bulletinu TC od spoločnosti AI tento týždeň končíme s AI, polopravidelným stĺpcom predtým známym ako Perceptron. Všetky analýzy, ktoré sme priniesli tento týždeň, však nájdete v AI a viacvrátane pozornosti na pozoruhodné nové modely AI, práve tu.
Tento týždeň v oblasti AI nastali problémy – opäť – pre OpenAI.
Skupina bývalých zamestnancov OpenAI hovoril s Kevinom Rooseom z The New York Times o tom, čo vnímajú ako závažné bezpečnostné zlyhania v rámci organizácie. Rovnako ako iní, ktorí v posledných mesiacoch opustili OpenAI, tvrdia, že spoločnosť nerobí dosť na to, aby zabránila tomu, aby sa jej systémy AI stali potenciálne nebezpečnými, a obviňujú OpenAI, že používa tvrdú taktiku, aby zabránila pracovníkom biť na poplach.
Skupina v utorok zverejnila otvorený list, v ktorom vyzvala popredné spoločnosti v oblasti umelej inteligencie, vrátane OpenAI, aby zaviedli väčšiu transparentnosť a väčšiu ochranu oznamovateľov. „Pokiaľ neexistuje účinný vládny dohľad nad týmito korporáciami, súčasní a bývalí zamestnanci sú jedni z mála ľudí, ktorí ich môžu brať na zodpovednosť voči verejnosti,“ píše sa v liste.
Nazvite ma pesimistickým, ale očakávam, že telefonáty bývalých zamestnancov budú padať na hlavu. Je ťažké si predstaviť scenár, v ktorom spoločnosti s umelou inteligenciou nielen súhlasia s „podporou kultúry otvorenej kritiky“, ako odporúčajú nižšie podpísaní, ale tiež sa rozhodnú nevynucovať doložky o neznevažovaní alebo odvetné opatrenia voči súčasným zamestnancom, ktorí sa rozhodnú prehovoriť.
Zoberme si bezpečnostnú komisiu OpenAI, ktorú spoločnosť nedávno vytvorila v reakcii na to počiatočné Kritika jej bezpečnostných praktík je vybavená všetkými zasvätenými osobami spoločnosti – vrátane generálneho riaditeľa Sama Altmana. A zvážte, že Altman, ktorý v jednom bode tvrdil, že nemá vedomosť o reštriktívnych dohodách OpenAI o nehanobení, sám podpísaný zakladateľské dokumenty, ktoré ich zakladajú.
Iste, veci v OpenAI by sa mohli zajtra otočiť – ale ja nezadržiavam dych. A aj keby áno, bolo by ťažké tomu veriť.
Správy
AI apokalypsa: Platforma chatbotov s podporou AI od OpenAI, ChatGPT – spolu s Antropic’s Claude a Google’s Gemini and Perplexity – všetko šiel dole dnes ráno približne v rovnakom čase. Všetky služby boli odvtedy obnovené, príčina ich výpadku však zostáva nejasná.
OpenAI skúma fúziu: OpenAI rokuje s fúznym startupom Helion Energy o dohode, v rámci ktorej by spoločnosť AI kúpila obrovské množstvo elektriny od Helionu, aby zabezpečila energiu pre svoje dátové centrá, uvádza Wall Street Journal. Altman má v Helion podiel 375 miliónov dolárov a sedí v predstavenstve spoločnosti, ale údajne sa vzdal rokovaní o dohode.
Cena tréningových údajov: TechCrunch sa zaoberá drahými licenčnými dohodami o údajoch, ktoré sa v odvetví AI stávajú samozrejmosťou – dohody, pri ktorých hrozí, že výskum AI bude pre menšie organizácie a akademické inštitúcie neudržateľný.
Generátory nenávistnej hudby: Zlomyseľní herci zneužívajú hudobné generátory poháňané AI na vytváranie homofóbnych, rasistických a propagandistických piesní – a tiež vydávajú návody, ktoré inštruujú ostatných, ako to urobiť.
Hotovosť pre Cohere: Agentúra Reuters uvádza, že Cohere, generatívny startup zameraný na AI, získal 450 miliónov dolárov od spoločností Nvidia, Salesforce Ventures, Cisco a ďalších v novej tranži, ktorá oceňuje Cohere na 5 miliárd dolárov. Známe zdroje pre TechCrunch hovoria, že Oracle a Thomvest Ventures – obaja vracajúci sa investori – sa tiež zúčastnili kola, ktoré zostalo otvorené.
Výskumná práca týždňa
V výzkumná práca z roku 2023 s názvom „Poďme overiť krok za krokom“, ktorý OpenAI nedávno zvýraznené Vedci z OpenAI na svojom oficiálnom blogu tvrdili, že vyladili všeobecný generatívny model AI startupu, GPT-4, aby dosiahli lepší ako očakávaný výkon pri riešení matematických problémov. Tento prístup by mohol viesť k tomu, že generatívne modely budú menej náchylné na vybočenie z koľají, hovoria spoluautori článku – poukazujú však na niekoľko upozornení.
V článku spoluautori podrobne opisujú, ako trénovali modely odmeňovania na detekciu halucinácií alebo prípadov, keď GPT-4 pomýlil svoje fakty a / alebo odpovede na matematické problémy. (Modely odmeňovania sú špecializované modely na vyhodnotenie výstupov modelov umelej inteligencie, v tomto prípade výstupov súvisiacich s matematikou z GPT-4.) Modely odmeňovania „odmeňovali“ GPT-4 zakaždým, keď sa mu podarilo správne vyriešiť krok matematického problému. výskumníci označujú ako „procesný dozor“.
Vedci tvrdia, že dohľad nad procesom zlepšil presnosť matematického problému GPT-4 v porovnaní s predchádzajúcimi technikami modelov „odmeňovania“ – aspoň v ich benchmarkových testoch. Pripúšťajú však, že to nie je dokonalé; GPT-4 má stále chybné kroky. A nie je jasné, ako by sa forma dohľadu nad procesom, ktorú výskumníci skúmali, mohla zovšeobecniť mimo matematickej oblasti.
Model týždňa
Predpovedanie počasia vám nemusí pripadať ako veda (aspoň keď vám prší, ako som to urobil ja), ale je to preto, že všetko je o pravdepodobnostiach, nie o istotách. A ako lepšie vypočítať pravdepodobnosti ako pravdepodobnostný model? Už sme videli, ako AI pracuje na predpovedi počasia v časových intervaloch z hodín na storočia, a Microsoft sa teraz pustil do zábavy. Spoločnosti nový model Aurora posúva loptičku vpred v tomto rýchlo sa vyvíjajúcom kúte sveta umelej inteligencie a poskytuje predpovede na úrovni zemegule s rozlíšením ~0,1° (myslím rádovo 10 km štvorcových).
Vyškolení na viac ako milión hodinách simulácií počasia a klímy (nie skutočné počasie? Hmm…) a doladení na množstvo žiaducich úloh, Aurora prekonáva tradičné numerické predpovedné systémy o niekoľko rádov. Ešte pôsobivejšie je, že poráža GraphCast od Google DeepMind vo svojej vlastnej hre (hoci si to vybral Microsoft), pričom poskytuje presnejšie odhady poveternostných podmienok na jedno až päťdňovej škále.
Spoločnosti ako Google a Microsoft majú samozrejme v pretekoch koňa, pričom obe súťažia o vašu pozornosť online tým, že sa snažia ponúknuť čo najviac prispôsobený web a vyhľadávanie. Presné a efektívne predpovede počasia prvej strany budú dôležitou súčasťou toho, aspoň kým neprestaneme chodiť von.
Chyť tašku
V myšlienke kus minulý mesiac v Palladiu, Avital Balwit, šéfka štábu v startupe AI Anthropic, predpokladá, že nasledujúce tri roky môžu byť posledné, čo musí ona a mnohí znalostní pracovníci pracovať vďaka rýchlemu pokroku generatívnej AI. To by malo byť skôr útechou než dôvodom na strach, hovorí, pretože by to mohlo „(viesť) do sveta, kde ľudia uspokoja svoje materiálne potreby, ale zároveň nebudú musieť pracovať.
„Renomovaný výskumník AI mi raz povedal, že cvičí (pre tento inflexný bod) tak, že sa venuje činnostiam, v ktorých nie je obzvlášť dobrý: jiu-jitsu, surfovaniu atď., a vychutnáva si to aj bez dokonalosti,“ Balwit píše. „Takto sa môžeme pripraviť na našu budúcnosť, kde budeme musieť robiť veci z radosti a nie z potreby, kde už v nich nebudeme najlepší, ale stále si budeme musieť vybrať, ako naplníme svoje dni.
To je určite pohľad na polovicu skla – ale nemôžem povedať, že ho zdieľam.
Ak by generatívna AI nahradila väčšinu vedomostných pracovníkov do troch rokov (čo sa mi zdá nereálne vzhľadom na mnohé nevyriešené technické problémy AI), mohlo by dôjsť k ekonomickému kolapsu. Znalostní pracovníci tvoria veľkú časť pracovnej sily a majú tendenciu mať vysoké zárobky — a teda veľké míňanie. Poháňajú kolesá kapitalizmu vpred.
Balwit sa odvoláva na univerzálny základný príjem a ďalšie rozsiahle programy sociálnej záchrannej siete. Ale veľmi neverím, že krajiny ako USA, ktoré nedokážu spravovať ani základnú federálnu legislatívu AI, prijmú v dohľadnej dobe schémy univerzálneho základného príjmu.
Pri troche šťastia sa mýlim.