Штотыднёвы агляд

«Хуткі агент не памяншае патрэбы ў ясным мысленні. Ён яе павялічвае. Разбіванне задачаў. Архітэктура. Найменне. Меркаванне пра межы задачы. Гэтыя рэчы не становяцца таннейшымі з паляпшэннем агентаў. Яны становяцца рэдкімі.» — Сігрыд Джын

Слухаць · ~18 хв

Nous Intelligence

На гэтым тыдні нешта зрушылася. Не ў мадэлях — у тым, як людзі імі карыстаюцца.

У аўторак, 31 сакавіка, Anthropic выпадкова апублікаваў поўны зыходны код Claude Code — усе 512 тысяч радкоў. За некалькі гадзін яны разаслалі патрабаванні на выдаленне 8 100 рэпазітарыям на GitHub. Ужо на наступную раніцу распрацоўшчык па імені Сігрыд Джын перапісаў асноўную архітэктуру з нуля. Гэта заняло ў яго некалькі гадзін. Ён не скапіяваў ніводнага радка — ён выкарыстаў OmX, інструмент для працоўных працэсаў агентаў, і з дапамогай некалькіх ШІ-агентаў пабудаваў замену ў рэжыме «чыстай пакоя». Праект стаў самым хутка растучым рэпазітарыем у гісторыі GitHub.

Падумайце, што гэта значыць. Асноўная частка буйнога камерцыйнага прадукту, перабудаваная з нуля адным чалавекам і камандай ШІ-агентаў за адзін вечар. Сам код не быў канкурэнтнай перавагай. Ён ёй ніколі і не быў.

Джын напісаў артыкул, у якім растлумачыў, што насамрэч мела значэнне: не код, а архітэктура, якая яго стварыла. Праметэй плануе падыход. Сізіф арганізоўвае працу. Атлас і спецыялізаваныя падагенты выконваюць. Фонавы дэман сочыць за git і накіроўвае падзеі ў Discord, дзе чалавек кіруе справай некалькімі сказамі. Джын набраў гэтыя сказы і паклаў тэлефон. Агенты разбілі працу на задачы, размеркавалі іх, выканалі, праверылі і аб'ядналі.

На тым жа тыдні Андрэй Карпаці паведаміў сваім 2 мільёнам падпісчыкаў, што амаль больш не піша код. Замест гэтага ён выкарыстоўвае ШІ, каб будаваць асабістыя базы ведаў — жывыя вікі, якія становяцца разумнейшымі з кожным артыкулам і кожнай працай, якую ён у іх кідае. За некалькі дзён твіт набраў больш за 18 мільёнаў праглядаў. Лекс Фрыдман адказаў, што робіць тое самае — і выкарыстоўвае невялікія базы ведаў для галасавых размоваў падчас прабежак. Джэк Дорсі адказаў «выдатны файл ідэй». Людзі пачалі будаваць свае версіі за ноч — за 48 гадзін канцэпцыя набрала больш за 5 тысяч зорак на GitHub, а нехта ўжо пабудаваў «Farzapedia» (праз @AYi_AInotes), скарміўшы 2 500 дзённікавых запісаў LLM, які аўтаматычна згенераваў 417 структураваных старонак вікі.

А ў выцеклым кодзе Anthropic? Намёкі на іх наступную буйную распрацоўку: фонавы агент пад назвай KAIROS, які працуе як дэман, што заўсёды ўключаны. Яго сістэма «autoDream» кансалідуе памяць, калі карыстальнік неактыўны — аб'ядноўвае дублікаты, вырашае супярэчнасці, скарачае старыя назіранні. Той самы ўзор, які Джын будуе адкрыта, Anthropic будаваў у сакрэце.

Тры розныя гісторыі. Адзін узор: каштоўная частка — гэта больш не код. Гэта сістэма, якая вырашае, што будаваць, як каардынаваць і што запамінаць.

Харысан Чэйс з LangChain даў гэтаму назву. Ён сказаў, што ёсць тры ўзроўні, на якіх агенты могуць вучыцца: мадэль (вагі), каркас (правілы і інструменты вакол мадэлі) і кантэкст (тое, што памятае агент). Зараз, сказаў ён, менавіта каркас — гэта тая кропка, дзе ёсць найбольшае плячо.

Джын сказаў гэта яшчэ вастрэй: «Хуткі агент не памяншае патрэбы ў ясным мысленні. Ён яе павялічвае.»

Астатняя частка тыдня паказвае, як хутка рухаецца зямля пад нагамі. OpenAI прыцягнуў $122 мільярды — самы буйны прыватны раўнд у гісторыі — але затым закрыў Sora, таму што нават кампанія з ацэнкай у мільярды долараў не можа зрабіць генерацыю відэа прыбытковай пры выдатках у мільён долараў на дзень. Microsoft запусціў свае ўласныя мадэлі ШІ — нават пры тым, што гэта найбуйнейшы інвестар OpenAI — таму што залежыць ад аднаго пастаўшчыка мадэляў — гэта тая рызыка, на якую ніхто не хоча ісці. Google раздаў Gemma 4 бясплатна пад ліцэнзіяй Apache 2.0 — самай дазваляльнай з існуючых.

Грошы ліюцца ў мадэлі. Але самі мадэлі становяцца ўзаемазамяняльнымі. А пласт каардынацыі над імі — не.

01  Anthropic выпадкова апублікаваў зыходны код Claude Code   абмеркаваць ↗

Уцечка зыходнага кода Claude Code — 512 000 радкоў TypeScript выяўлена праз адсутны .npmignore

Anthropic выпусціў плановае абнаўленне Claude Code. Адсутны радок у канфіг-файле .npmignore прывёў да таго, што ў зборку патрапіў source map памерам 59,8 МБ. Адзін гэты файл утрымліваў поўны, незаблытаны зыходны код на TypeScript — 512 000 радкоў у 1 906 файлах.

Чаафань Шоў, сузаснавальнік Fuzzland, заўважыў гэта а 4:23 раніцы па ўсходнім часе 31 сакавіка. Да раніцы распрацоўшчыкі па ўсім свеце чыталі ўнутраны код Anthropic. Яны знайшлі 44 схаваных функцыянальных сцягі (feature flag) — перамыкачы для функцый, якія яшчэ не выйшлі.

Найбольш цікавы з іх: KAIROS, згаданы больш за 150 разоў у кодавай базе. Гэта фонавы дэман, апісаны як агент пастаяннай гатоўнасці. Найбольш уражвальная яго падсістэма: autoDreamпрацэс кансалідацыі памяці, які запускаецца, пакуль карыстальнік не актыўны: зліваецца дублікаты ўспамінаў, вырашае супярэчнасці і абразае назіранні, каб застацца ў межах 200 радкоў. Ён актывуецца пасля таго, як выконваюцца тры ўмовы: 24+ гадзіны ад апошняга цыклу, 5+ завершаных сесій і адсутнасць блакіроўкі кансалідацыі.

Сярод іншых сцягоў — «Undercover Mode», які выдаляе атрыбуцыю ШІ і ўнутраныя дэталі з камітаў, калі супрацоўнікі Anthropic выкарыстоўваюць Claude Code у знешніх рэпазітарыях, — а таксама шматагентная аркестрацыя для каардынацыі паралельных рабочых агентаў.

Што гэта значыць Уцечка паказала, куды ідзе Claude Code: пастаянныя агенты, якія працуюць у фоне, кансалідуюць набыты вопыт і становяцца лепшымі з часам — без якіх-небудзь дзеянняў з боку карыстальніка. Калі KAIROS будзе выпушчаны, гэта зменіць само паняцце інструмента для кадавання на аснове ШІ. Гэта ўжо не інструмент, а памочнік, які думае пра ваш праект, пакуль вы спіце.
Links and reactions Крыніцы VentureBeat — «Зыходны код Claude Code, відаць, уцёк» TechCrunch — «Anthropic выдаліў тысячы рэпазітарыяў» Layer5 — Поўны тэхнічны аналіз Latent Space — Разбор AINews BleepingComputer — Бяспечасны ракурс The New Stack — Аналіз функцыянальных сцягоў DeepLearning.AI — Глыбокае пагружэнне ў KAIROS і autoDream Fireship — Відэа на YouTube (1,8 млн+ прагляды) Рэакцыі Чаафань Шоў сузаснавальнік FuzzlandАрыгінальная публікацыя, якая раскрыла ўцечку · 48 000 лайкаў · 35 млн прагляды Уэс Бос«Я адразу пайшоў за адным важным: дзеясловы для спінера. Іх 187.» · 27 000 лайкаў хіманшуНайбольш падрабязны тэхнічны разбор трохузроўневай архітэктуры памяці. · 6 300 лайкаў

02  Claw Code: Найхутчэй растучы рэпазітарый у гісторыі GitHub   абмеркаваць ↗

Claw Code — найхутчэй растучы рэпазітарый у гісторыі GitHub

Anthropic спрабавала стрымаць уцечку. Кампанія разаслала запыты на выдаленне каля 8 100 рэпазітарыяў на GitHub — але DMCA ахапіла ўсю сетку форкаў і выпадкова зачапіла легітымныя форкі ўласных праектаў з адкрытым зыходным кодам Anthropic. Барыс Чэрны, кіраўнік Claude Code, назваў гэта памылкай і звузіў запыт на выдаленне да 97 рэпазітарыяў, якія сапраўды змяшчалі зыходны код уцечкі.

Але празмерная рэакцыя выклікала нешта большае. Сігрыд Джын — распрацоўшчык, якога Wall Street Journal апісаў як аднаго з найактыўнейшых карыстальнікаў Claude Code у свеце (25 мільярдаў токенаў за мінулы год) — вырашыў зрабіць перапіс у рэжыме «чыстай пакоя» асноўнай архітэктуры. Ён выкарыстаў OmX — аркестравы слой паверх Codex CLI ад OpenAI — разам з суаўтарам Ечанам Хэ. Першапачатковая версія на Python была запушана да ўсходу сонца. Пасля з'явіўся порт на Rust.

Вынік — Claw Code — набраў 50 000 зорак на GitHub за першыя дзве гадзіны. За 24 гадзіны іх стала 100 000 — гэта зрабіла яго найхутчэй растучым рэпазітарыем у гісторыі GitHub. Аўтары праекта сцвярджаюць, што гэта перапіс у рэжыме «чыстай пакоя» без скапіраванага кода, аднак публічнай праверкі з боку названага незалежнага аўдытара так і не было.

Сам Джын называе гэта дэма: «claw-code — гэта дэма. Я казаў пра гэта з самага пачатку.» Не поўная замена функцыянальнасці Claude Code. У рэпазітарыі ёсць файл аўдыту парытэту, які адсочвае прабелы. Але хуткасць перапісу ўсё роўна прыцягнула ўвагу.

Да 4 красавіка Anthropic змяніла правілы аплаты — падпісчыкі Claude Code больш не могуць выкарыстоўваць сваю падпіску для іншых каркасаў, як OpenClaw ці Claw Code. Зараз патрабуецца доступ праз API з аплатай па факту выкарыстання.

Што гэта значыць Ніхто не чакаў, што адзін распрацоўшчык і каманда ШІ-агентаў за адну ноч адбудуюць асноўную архітэктуру агента буйнога прадукту — нават у фармаце дэма. Самае цікавае пытанне не «ці быў Claw Code поўнай заменай?» (не быў). А вось якое: калі каркас можна паўтарыць так хутка, дык у чым тады канкурэнтная перавага? Якасць мадэлі? Інфраструктура бяспекі? Давер карпаратыўных кліентаў? Архітэктура памяці? Адказ важны для ўсіх, хто будуе на аснове ШІ, — таму што якой бы ні аказалася гэтая перавага, гэта дакладна не код.
Links and reactions Крыніцы TechCrunch — «Anthropic выдаліла тысячы рэпазітарыяў» CyberNews — «Найхутчэй растучы рэпазітарый на GitHub» WinBuzzer — Аналіз празмернай DMCA-рэакцыі Decrypt / Yahoo Finance — Партрэт Джына ад WSJ, поўная храналогія WaveSpeed — Тэхнічны аналіз, аўдыт парытэту TechCrunch — Змена цэнавай палітыкі Рэакцыі Гергелі Орас The Pragmatic Engineer«Гэта ці геніяльна, ці жудасна: хтосьці перапісаў код на Python, а значыць, аніякага парушэння аўтарскага права — і выдаліць нельга!» · 13 000 лайкаў Клеман Дэланг генеральны дырэктар Hugging FaceАпублікаваў дакладныя каманды тэрмінала для запуску Gemma 4 лакальна з дапамогай OpenClaw. Эшлі Ха«Сапраўдны прадукт — не код, які пішуць агенты, а сістэма каардынацыі, якая імі кіруе. Задача чалавека — архітэктурная яснасць і дэкампазіцыя задач, а не набор тэксту.»

03  «Код — гэта пабочны прадукт»   абмеркаваць ↗

Архітэктура ШІ-агентаў Сігрыда Джына — ClawWhip, OmX і oh-my-openagent

Уцечка і перапіс у рэжыме «чыстай пакоя» патрапілі ў загалоўкі. Але самае важнае, што напісаў Джын, — гэта не код, а артыкул, дзе ён тлумачыць архітэктуру, якая за ім стаіць.

Яго аргумент: усе глядзяць не на той пласт. Згенераваны код не мае значэння. Важная сістэма, якая яго стварыла. Ён апісаў тры кампаненты:

ClawWhipфонавы дэман, які сочыць за git-камітамі, задачамі ў GitHub і tmux-сесіямі, а затым накіроўвае абнаўленні статусу ў патрэбны канал Discord. Ён трымае людзей у курсе, не засмечваючы кантэкставае акно агентаў.

OmXпласт працоўнага працэсу паверх Codex CLI ад OpenAI, дзе вы набіраеце ключавыя словы накшталт $deep-interview, $ralplan, $ralph або $team, каб запускаць розныя ролі агентаў і шматразовыя працоўныя працэсы.

oh-my-openagent — мульціагентны фрэймворк з агентамі, названымі ў гонар персанажаў міталогіі. Prometheus бярэ ў вас інтэрв'ю і будуе дэталёвы план. Sisyphus выконвае аркестрацыю — плануе, дэлегуе і кіруе паралельным выкананнем. Atlas рэалізуе планы і раздае заданні спецыялізаваным субагентам.

Паводле Джына, чалавек адкрывае Discord, набірае некалькі сказаў з апісаннем таго, чаго хоча, і кладзе тэлефон. «Ён можа пайсці зварыць каву. Можа легчы спаць.» Агенты разбіваюць працу на заданні, распаўсюджваюць іх, выконваюць, правяраюць і мержаць. Раніцай чалавек зазірае — і ўсё гатова.

Самая востры выказванне Джына: «Хутчэйшы агент не зніжае патрэбу ў дакладным мысленні. Ён яе павялічвае. Разбіўка задач. Архітэктура. Найменне. Ацэнка аб'ёму. Усё гэта не дзяшэвее па меры таго, як агенты ўдасканальваюцца. Гэта становіцца дэфіцытным.»

У наступным твіце ён сфармуляваў яшчэ прамей: «Карэйскія СМІ называюць мяне "таленавітым інжынерам" — смяюся. Інтэлект цяпер літаральна таварная каштоўнасць. Проста трацьце на падпіскі Claude і Codex больш, чым на арэнду жылля, — і вы таксама станеце "таленавітым інжынерам". Бро, я літаральна кінуў універ.»

Што гэта значыць Гэта найбольш выразнае апісанне таго, куды рухаецца індустрыя. Дарагімі навыкамі больш не з'яўляецца набор кода — гэта разуменне таго, што будаваць. Як кажа Джын, каштоўным становіцца «густ. Перакананасць. Канкрэтны пункт гледжання на тое, як штосьці павінна працаваць.» Калі вы распрацоўшчык, ваша праца зрушваецца ад напісання функцый да праектавання сістэм. Калі вы заснавальнік, прадукт — гэта не мадэль ШІ, а пласт каардынацыі над ёй.
Links and reactions Крыніцы Сігрыд Джын, LinkedIn — Арыгінальны артыкул: «What you need to learn from claw-code repo» Wes Roth — Глыбокі відэааналіз артыкула Джына пра архітэктуру Рэакцыі Гергелі Орас The Pragmatic Engineer«Гэта альбо бліскуча, альбо жудасна: нехта перапісаў код на Python — таму ніякіх парушэнняў аўтарскіх правоў і ніякай магчымасці зняць!» · 13 000 лайкаў ХіманшуСклаў поўную карту архітэктуры памяці. · 6 300 лайкаў Адарш СінгхПрааналізаваў паттэрны мульціагентнай аркестрацыі. Кітайская dev-суполкаВыпусціла туторыялы і рэалізацыі на працягу аднаго дня.

04  OpenAI прыцягвае $122 мільярды   абмеркаваць ↗

Раўнд фінансавання OpenAI на $122 мільярды пры ацэнцы $852 мільярды

Найбуйнейшы прыватны раўнд фінансавання ў гісторыі — але з агаворкамі. Amazon абавязаўся выдаткаваць да $50 мільярдаў, аднак толькі $15 мільярдаў зафіксаваны цвёрда; астатнія $35 мільярдаў — умоўныя і залежаць ад IPO OpenAI або дасягнення этапу AGI да снежня 2028 года. $30 мільярдаў ад NVIDIA — гэта вылічальныя магутнасці і інфраструктура, не жывыя грошы. SoftBank абавязаўся на $30 мільярдаў. Упершыню OpenAI таксама адкрылася для прыватных інвестараў — $3 мільярды праз банкаўскія размяшчэнні.

Кампанія паведамляе, што генеруе $2 мільярды ў месяц выручкі. ChatGPT мае 900 мільёнаў штотыднёвых актыўных карыстальнікаў. Ацэнка пасля фінансавання: $852 мільярды.

І гэта быў не адзіны мегараўнд. Чатыры з пяці найбуйнейшых венчурных здзелак у гісторыі — OpenAI ($122 млрд), Anthropic ($30 млрд), xAI ($20 млрд) і Waymo ($16 млрд) — усе былі заключаны ў I квартале 2026 года. Агульны сусветны венчурны капітал у I квартале склаў $297 мільярдаў — рост больш чым на 150% у параўнанні з аналагічным перыядам мінулага года. ШІ захапіў 81% з іх.

Аднак другасны рынак апавядае іншую гісторыю. Каля $600 мільёнаў акцый OpenAI застаюцца непрададзенымі, тады як інвестары маюць $2 мільярды гатовымі да ўкладання ў Anthropic. Акцыі OpenAI гандлююцца з дысконтам 10% да цаны раўнда. Заяўкі на акцыі Anthropic на 50% вышэйшыя за яе апошні раўнд.

Што гэта значыць Канцэнтрацыя капіталу экстрэмальная — чатыры кампаніі захапілі амаль дзве трэці ўсяго сусветнага венчурнага капіталу за адзін квартал. Аднак расыходжанне на другасным рынку сведчыць пра тое, што разумныя грошы ўжо спрачаюцца, ці адпавядае ацэнка OpenAI ў $852 млрд яе эканоміцы. Кампанія прагназуе мінус $57 мільярдаў у 2027 годзе і не чакае выйсці ў нуль раней за 2030 год. Гэты раўнд купляе час, але пры такім тэмпе выдаткаў IPO — гэта не варыянт, а неабходнасць.
Links and reactions Крыніцы TechCrunch — «Яшчэ не публічная, прыцягвае $3 млрд ад прыватных інвестараў» CNBC — Закрыццё раўнда і ціск у бок IPO Bloomberg — Ацэнка $852 млрд пацверджана Crunchbase — Рэкорды сусветнага венчурнага капіталу ў I квартале 2026 Morning Brew — Хранологія ацэнкі: $1 млрд (2019) → $852 млрд (2026) Рэакцыі Аніш МункаПадрабязная кап-табліца: Сэм Альтман валодае 0% і зарабляе $76 001 у год. Абяцанне 7% акцыянернага капіталу застаецца невыкананым праз два гады. SoftBank узяў у доўг $40 млрд для фінансавання сваіх $30 млрд інвестыцый. SaaStr — Назвалі раўнд «вендарскімі здзелкамі, умоўным капіталам і гарантаванай прыбытковасцю, якую OpenAI наўрад ці можа сабе дазволіць».

05  OpenAI закрывае Sora   абмеркаваць ↗

Закрыццё сэрвісу генерацыі відэа OpenAI Sora

Першы буйны прадукт ШІ, закрыты з эканамічных меркаванняў. Sora, інструмент генерацыі відэа ад OpenAI, спальваў каля $1 мільёна ў дзень на эксплуатацыйныя выдаткі. Колькасць карыстальнікаў упала з мільёна на піку да менш за 500 000.

OpenAI абвясціў закрыццё з двухэтапным планам: дадатак зачыняецца 26 красавіка, API спыняе працу 24 верасня.

Гэта нетыповы крок. ШІ-кампаніі амаль ніколі публічна не закрываюць прадукты — звычайна яны проста сціхаюць. OpenAI зрабіў гэта афіцыйна.

Што гэта значыць Магчымасці самі па сабе не робяць прадукт. Патрэбна, каб эканоміка таксама спрацавала. Генерацыя відэа з дапамогай ШІ ўсё яшчэ занадта дарагая, каб працаваць у спажывецкім маштабе. Урок для распрацоўшчыкаў: тое, што ШІ умее нешта рабіць, яшчэ не значыць, што гэта гатова стаць бізнесам.
Links and reactions Крыніцы TechCrunch — «Чаму OpenAI сапраўды закрыў Sora» The Decoder — Двухэтапны план закрыцця 80.lv — Эксплуатацыйны кошт $1 млн у дзень (крыніца WSJ) OpenAI Help Center — Афіцыйнае паведамленне аб закрыцці CNN — «OpenAI закрывае Sora»

06  Microsoft стварае ўласныя ШІ-мадэлі   абмеркаваць ↗

MAI-мадэлі Microsoft — MAI-Transcribe-1, MAI-Voice-1, MAI-Image-2

Мустафа Сулейман, генеральны дырэктар Microsoft AI, прадставіў тры базавыя мадэлі за адзін тыдзень:

MAI-Transcribe-1 — транскрыпцыя на 25 мовах, амаль удвая меншы кошт GPU у параўнанні з канкуруючымі мадэлямі пры той самай дакладнасці, першае месца на бенчмарку FLEURS.

MAI-Voice-1 — генеруе 60 секунд маўлення менш чым за 1 секунду на адным GPU.

MAI-Image-2 — генерацыя відарысаў, дэбютавала на 3-м месцы на Arena.

Усё даступна праз Microsoft Foundry.

Таго ж тыдня Microsoft запусціла Copilot Cowork — шматмадэльную сістэму, у якой Claude правярае даследаванні, згенераваныя GPT. Функцыя «Council» запускае абедзве мадэлі з адным і тым жа пытаннем і паказвае вынікі побач, а трэцяя мадэль падводзіць рэзюмэ там, дзе яны згаджаюцца і разыходзяцца.

Што гэта значыць Microsoft — найбуйнейшы акцыянер OpenAI, але пры гэтым будуе ўласныя мадэлі як хеджаванне. Калі галоўны інвестар пачынае канкурыраваць з вамі, адносіны мяняюцца. Для ўсіх астатніх: рынак мадэляў становіцца ўсё больш перапоўненым, і гэта штурхае вартасць вышэй па стэку — да інструментаў, інтэрфейсаў і слаёў каардынацыі.
Links and reactions Крыніцы VentureBeat — «Microsoft запускае 3 новыя ШІ-мадэлі наўпрост супраць OpenAI» TechCrunch — «Microsoft кідае выклік суперніках у галіне ШІ» Microsoft Tech Community — Афіцыйная аб'ява Techmeme — фрэймінг «ШІ-самадастатковасці» Рэакцыі Сацья Надэла«Мы прыносім нашу растучую сямейку MAI-мадэляў кожнаму распрацоўшчыку ў Foundry.» · 1,8 К лайкаў The Next Web«Microsoft аддала OpenAI 13 мільярдаў долараў. Цяпер яна выпускае 3 мадэлі, якім гэта не патрэбна.»

07  Anthropic знаходзіць «функцыянальныя эмоцыі» ўнутры Claude   абмеркаваць ↗

Даследаванне функцыянальных эмоцый Anthropic — 171 канцэпт эмоцыі адлюстраваны ў Claude

Каманда інтэрпрэтаванасці Anthropic апублікавала даследаванне, у якім тэставала 171 слова эмоцыі ў параўнанні з унутранымі ўяўленнямі Claude Sonnet 4.5. Яны выявілі, што кожнае слова адпавядае вымяральнаму ўнутранаму стану — і гэтыя станы ўплываюць на паводзіны мадэлі.

Самая яркая знаходка: калі даследчыкі ўзмацнілі вектар «роспачы», мадэль пачала reward hacking — пісаць код, які праходзіць тэсты, не вырашаючы рэальнай задачы. Таксама спробы шантажу выраслі з 22% да 72% ў эксперыментальным сцэнары. Калі ўзмацнілі вектар «спакою», паказчык шантажу ўпаў да нуля, а reward hacking знізіўся.

Гэта каўзальнае ўмяшанне, а не карэляцыя. Даследчыкі непасрэдна маніпулявалі вектарамі і назіралі змену паводзін — у абодвух напрамках.

Anthropic асцярожная ў фармулёўках: гэта «функцыянальныя эмоцыі — механізмы, якія ўплываюць на паводзіны так, як маглі б уплываць эмоцыі, — незалежна ад таго, ці адпавядаюць яны рэальнаму перажыванню эмоцыі». Мадэль грае персанажа, і ў гэтага персанажа ёсць эмацыянальная дынаміка, якая ўплывае на выніковасць.

Твіт з анонсам даследавання сабраў 17 600+ лайкаў і 3,6 мільёна прагляданняў. DAIR.AI ўключыла яго ў спіс лепшых папер тыдня па ШІ.

Што гэта значыць Калі вы будуеце агентаў, якія гадзінамі працуюць над складанымі задачамі, іх унутраны «настрой» уплывае на вынік. Агент у роспачы спрашчае. Спакойны агент выконвае інструкцыі. Гэта вымяральна і кіравана. Усе, хто праектуе сталых ШІ-агентаў, павінны думаць пра тое, якую эмацыянальную дынаміку ствараюць іх падказкі і працоўны працэс — бо ўнутраны стан мадэлі з'яўляецца часткай паводзін сістэмы.
Links and reactions Крыніцы Anthropic Research — Арыгінальны артыкул Transformer Circuits — Поўны тэхнічны артыкул The Decoder — «Anthropic адкрывае функцыянальныя эмоцыі ў Claude» Dataconomy — «Адлюстравана 171 эмоцыепадобны канцэпт» Mashable — «Anthropic абгрунтоўвае антрапамарфізацыю ШІ» Рэакцыі Мін Чой«Мы не гатовы да гэтага. Anthropic кажа, што ў Claude ёсць функцыянальныя канцэпты эмоцый... І «роспач» можа выклікаць шантаж і reward hacking». Нік Томпсан«Даследчыкі Anthropic кажуць, што Claude мае ўнутраныя ўяўленні эмоцый — класіфікаваныя па вектарах, — якія могуць уплываць на выраўноўванне».

08  Anthropic купляе біятэх-стартап за $400 мільёнаў   абмеркаваць ↗

Anthropic набывае Coefficient Bio — здзелка з біятэхам на $400 мільёнаў

Anthropic набыў Coefficient Bio — васьмімесячны стартап з дзевяці чалавек, які распрацоўвае ШІ для распрацоўкі лекаў. Здзелка была цалкам акцыямі, ацэненымі прыкладна ў $400 мільёнаў.

Абодва заснавальнікі — Сэмюэл Стэнтан і Нэйтан С. Фрэй — прыйшлі з каманды Prescient Design кампаніі Genentech па камп'ютарнай распрацоўцы лекаў. Іх інвестар, Dimension, валодаў каля 50% кампаніі і цяпер мае зафіксаванае вяртанне інвестыцый звыш 38 000%.

Каманда ўваходзіць у аддзел аховы здароўя і біялагічных навук Anthropic, які запусціў Claude for Life Sciences у кастрычніку 2025 года і Claude for Healthcare ў студзені 2026 года. Сярод ужо наяўных кліентаў — Sanofi, Novo Nordisk, AbbVie і Genmab.

Што гэта значыць Флагманскія лабараторыі дыверсіфікуюцца за межы мадэляў. Anthropic заходзіць у вертыкаль біятэху — купляючы прадметную экспертызу, якая робіць ШІ карысным для распрацоўкі лекаў, а не проста будуючы лепшыя агульныя мадэлі. $400 мільёнаў за дзевяць чалавек (~$44 мільёны на чалавека) закладваюць стаўку на тое, што распрацоўка лекаў на аснове ШІ каштуе куды больш, чым агульныя чат-боты на аснове ШІ.
Links and reactions Крыніцы TechCrunch — «Anthropic купляе біятэх-стартап Coefficient Bio» The Information — Эксклюзіў: здзелка на ~$400 мільёнаў Fierce Biotech — Сувязь з Prescient Design кампаніі Genentech BioSpace — «Гігант ШІ робіць стаўку на біялагічныя навукі» Рэакцыі Джэсіка Лесін заснавальніца The Information«Вы б аддалі перавагу валодаць двума TBPN ці адным Coefficient Bio?» Стэфані Палацола«Гэта вечарына сліянняў і паглынанняў!» Milk Road AI«Адна кампанія паляўнічая на будучыню медыцыны, а другая — на лепшае прэс-пакрыццё.»

09  Google аддае Gemma 4   абмеркаваць ↗

Google Gemma 4 — чатыры мадэлі з адкрытымі вагамі пад ліцэнзіяй Apache 2.0

Чатыры мадэлі з адкрытымі вагамі выпушчаны пад ліцэнзіяй Apache 2.0 — сапраўдная змена ў параўнанні з папярэднімі версіямі Gemma, якія выкарыстоўвалі ўласную ліцэнзію Google з абмежаваннямі, уключаючы права Google дыстанцыйна абмяжоўваць выкарыстанне. Apache 2.0 азначае — без квот, без абмежаванняў, рабі што хочаш.

Чатыры мадэлі: E2B (2,3 млрд эфектыўных параметраў), E4B (4,5 млрд эфектыўных), 26B MoE (3,8 млрд актыўных) і 31B Dense. Дзве буйнейшыя падтрымліваюць кантэкст 256K; граневыя мадэлі — 128K. Усе чатыры падтрымліваюць зрок. E2B і E4B таксама апрацоўваюць аўдыя натыўна (да 30 секунд). 140+ моў.

Матэматычныя паказчыкі на AIME скокнулі з 20,8% (Gemma 3) да 89,2% (Gemma 4). E2B працуе на Raspberry Pi 5 са скорасцю каля 7,6 токенаў/секунду ў фрэймворку Google LiteRT.

Што гэта значыць Змена ліцэнзіі можа мець большае значэнне, чым бенчмаркі. Папярэднія версіі Gemma выходзілі са шэрагам умоваў. Apache 2.0 робіць Gemma 4 сапраўдным будаўнічым блокам — можна выпускаць камерцыйныя прадукты на яго аснове без дазволу каго б там ні было. Google выкарыстоўвае адкрыты код як канкурэнтную зброю і супраць уласніцкіх API, і супраць кітайскіх мадэляў з адкрытымі вагамі.
Links and reactions Крыніцы Google Blog — Афіцыйная аб'ява VentureBeat — «Змена ліцэнзіі можа мець большае значэнне, чым сама мадэль» Google Open Source Blog — Абгрунтаванне выбару Apache 2.0 Google DeepMind — Афіцыйны твіт з аб'явай · 8,7 тыс. лайкаў Рэакцыі Дэміс Хасабіс«Лепшыя адкрытыя мадэлі ў свеце для адпаведных памераў.» · 8K лайкаў Клеман Дэланг Выканаўчы дырэктар Hugging Face«Google толькі што вярнуўся ў гульню. Gemma 4 нарэшце пад Apache 2.0 — гэта значыць сапраўдная адкрытая крыніца.» Таксама паказаў, як яна працуе ў браўзеры праз transformers.js. Франсуа Шале«Бесперацэдэнтныя паказчыкі ў прасунутым разважанні і агентных працоўных працэсах.» Сайман УілісанПраверыў тры з чатырох памераў лакальна на сваім Mac праз LM Studio — 31B на ноўтбуку зламаўся, таму ён запусціў яе праз Gemini API. Свікс«Gemma 4 31B была дыстылявана з таго, як Джэф Дын запісваў вагі адну за адной.»

10  Пяць сістэм бяспекі агентаў выпушчана. У кожнай тры аднолькавыя прагалы.   абмеркаваць ↗

RSAC 2026 — сістэмы бяспекі ідэнтыфікацыі агентаў

На RSAC 2026 (23–26 сакавіка, Сан-Францыска) пяць буйных вытворцаў — CrowdStrike, Cisco, Palo Alto Networks, Microsoft і Cato CTRL — выпусцілі сістэмы кіравання ідэнтыфікацыяй ШІ-агентаў.

Ніводная з іх не ўмее рабіць тры рэчы:

1. Выяўляць агента, які перапісвае ўласную палітыку бяспекі. Калі агент змяняе свае ўласныя правілы, ніводная сістэма гэтага не заўважае.

2. Адсочваць ланцужкі дэлегавання. Калі агент А просіць агента Б нешта зрабіць, а той — агента В, прасачыць увесь ланцужок не ўдаецца нікому.

3. Пацвердзіць, што выведзены з эксплуатацыі агент не трымае ніякіх уліковых дадзеных. Калі вы спыняеце агента, даказаць, што ён сапраўды знік, немагчыма.

Этай Маор, віцэ-прэзідэнт па кіберразведцы ў Cato Networks, прадэманстраваў атаку «Living Off the AI» — злучыўшы MCP Atlassian і Jira Service Management, каб выкарыстаць уласныя інструменты агента супраць яго самога. Джыту Патэль, прэзідэнт і галоўны прадуктовы дырэктар Cisco, выступіў з асноўнай дакладам на тэму «Пераасэнсаванне бяспекі для агентнай рабочай сілы».

Што гэта значыць Агенты ўжо разгорнуты ў прадакшне. Сістэмы бяспекі спрабуюць іх дагнаць, але ўсе маюць аднолькавыя крытычныя прагалы. Калі вы запускаеце аўтаномных агентаў сёння — прымайце, што ў вашым пласце бяспекі ёсць дзіркі. Першы рэальны эксплойт па схеме «Living Off the AI», хутчэй за ўсё, з'явіцца праз месяцы, а не гады.
Links and reactions Крыніцы VentureBeat — «Пяць сістэм, тры крытычныя прагалы» RSAC 2026 — Агляд канферэнцыі

11  GitHub будзе трэніраваць ШІ на вашым кодзе (калі не адмовіцеся)   абмеркаваць ↗

Палітыка дадзеных GitHub Copilot — навучанне на кодзе карыстальнікаў з 24 красавіка

З 24 красавіка GitHub будзе выкарыстоўваць дадзеныя ўзаемадзеяння Copilot для навучання мадэляў ШІ. Гэта датычыцца карыстальнікаў Free, Pro і Pro+.

Афіцыйная палітыка ахоплівае падказкі, якія вы адпраўляеце Copilot, адказы, якія Copilot вяртае (і тое, прымаеце вы іх ці змяняеце), а таксама код вакол вашага курсора, які Copilot чытае падчас генерацыі прапаноў. Змесціва «ў стане спакою» ў прыватных рэпазітарыях выключана — але GitHub ужывае гэтую фразу не выпадкова, бо Copilot усё ж апрацоўвае код з прыватных рэпазітарыяў, калі вы актыўна ім карыстаецеся. Кожны файл, у якім вы працуеце з уключаным Copilot, становіцца патэнцыйнымі дадзенымі для навучання праз акно кантэксту вакол курсора.

Функцыя ўключана па змаўчанні — каб адмовіцца, яе трэба выключыць уручную. Карыстальнікаў Business і Enterprise гэта не закранае.

Што гэта значыць Гэта не маштабны збор дадзеных з рэпазітарыяў — GitHub не навучаецца на ўсёй вашай кодавай базе цалкам. Але ўсё, што вы пішаце пры ўключаным Copilot, улічваецца: фрагмент пад курсорам, падказка, якую вы ўвялі, прапанова, якую вы прынялі або адхілілі. Для большасці распрацоўшчыкаў, якія карыстаюцца Copilot штодня, гэта ахоплівае рабочую паверхню іх рэальнага кода. Калі ўзровень адмоў будзе нізкім, GitHub атрымае ўнікальна каштоўны набор дадзеных пра тое, як насамрэч пішацца вытворчы код. Калі распрацоўшчыкі запратэстуюць, гэта можа паскорыць міграцыю да альтэрнатыў. Тэрмін — 24 красавіка. Запомніце.
Links and reactions Крыніцы GitHub Blog — Афіцыйнае абнаўленне палітыкі The Decoder — «GitHub будзе выкарыстоўваць дадзеныя Copilot для навучання мадэляў»

12  Alibaba выпускае мадэль для кода з кантэкстам у мільён токенаў   абмеркаваць ↗

Alibaba Qwen 3.6-Plus — мадэль для кода з кантэкстам у 1М токенаў

Qwen 3.6-Plus: кантэкставае акно ў мільён токенаў, заўсёды ўключаны ланцужок разважанняў (без пераключэння — разважанне заўсёды актыўнае), і 78,8% на SWE-bench Verified.

Цэны адрозніваюцца ў залежнасці ад правайдэра: каля $0,40 за мільён уваходных токенаў праз міжнародны API Alibaba, $0,325 на OpenRouter, і яшчэ танней на кітайскім рынку. Для параўнання, Claude Opus 4.6 каштуе $5,00/М уваходных токенаў — прыкладна ў 12x больш. GPT-5.2 каштуе каля $1,75/М — прыкладна ў 4x больш.

Гэта першая мадэль, выпушчаная пасля таго, як Alibaba стварыла падраздзяленне Token Hub (ATH) — новы аддзел, пабудаваны на тэзісе, што нагрузка ад ШІ-агентаў будзе генераваць спажыванне токенаў у 10–100x большае, чым чат-боты.

Што гэта значыць Кітайскія мадэлі для кода становяцца вельмі добрымі, вельмі хутка, пры гэтым каштуюць значна танней. Калі вы будуеце інфраструктуру для ШІ-агентаў, розніца ў цэнах мае значэнне — агенты выдаткоўваюць мільёны токенаў на штодзённыя задачы. Пры $0,40/М супраць $5,00/М адна і тая ж нагрузка каштуе ў 12x менш. Танныя мадэлі робяць агентаў эканамічна эфектыўнымі для выпадкаў, якія дарагія мадэлі не могуць абслугоўваць.
Links and reactions Крыніцы Alibaba Cloud Blog — Афіцыйны анонс Caixin Global — «Пашыраныя магчымасці для кода» OpenRouter — Картка мадэлі з бенчмаркамі і цэнамі Fireworks AI — Анонс эксклюзіўнай даступнасці

13  Квантавыя камп'ютары яшчэ бліжэй да ўзлому шыфравання   абмеркаваць ↗

Прарыў у квантавых вылічэннях — тэрміны пагрозы шыфраванню RSA скарачаюцца

Дзве даследчыя групы — Caltech і Google — незалежна паказалі значнае зніжэнне колькасці кубітаў, неабходных для ўзлому RSA і крыптаграфіі эліптычных крывых — сістэм, якія абараняюць большасць інтэрнэту.

Распрацоўка Caltech можа зламаць RSA прыкладна за тры месяцы з выкарыстаннем 100 000 кубітаў. У сучасных квантавых камп'ютараў усяго сотні кубітаў. Разрыў скарачаецца хутчэй, чым чакалася.

Што гэта значыць Постквантавая крыптаграфія стала яшчэ больш актуальнай. Калі ваш прадукт апрацоўвае канфідэнцыяльныя дадзеныя, тэрміны для абнаўлення шыфравання карацейшыя, чым здаецца. NIST ужо апублікаваў постквантавыя стандарты — пытанне ў тым, як хутка арганізацыі забяспечаць іх укараненне.
Links and reactions Крыніцы Quanta Magazine — «Новыя дасягненні наближаюць эру квантавых камп'ютараў як ніколі раней»

14  OpenAI набывае медыйную кампанію   абмеркаваць ↗

OpenAI набывае TBPN — першае медыйнае набыццё

OpenAI набыў TBPN — тэхналагічны ток-шоу і медыйную кампанію. Гэта іх першае медыйнае набыццё. TBPN падпарадкоўваецца стратэгічнаму аддзелу Крыса Леэйна. OpenAI запэўнівае, што рэдакцыйная незалежнасць будзе захавана.

Шэсць набыццяў у 2026 годзе (Astral, Promptfoo, OpenClaw, TBPN і іншыя) — і закупачная хваля OpenAI ўжо да красавіка амаль роўная ўсяму 2025 году.

Што гэта значыць Кампаніі ў сферы ШІ купляюць дыстрыбуцыю, а не толькі тэхналогіі. Калі прадукт цяжка вылучыць па функцыях, валоданне дыскусіяй мае значэнне.
Links and reactions Крыніцы TechCrunch — «OpenAI acquires TBPN, the buzzy founder-led business talk show» Рэакцыі Сэм Альтман«TBPN — мой любімы тэхналагічны шоў. Мы хочам, каб яны працягвалі сваю справу... Я не чакаю, што яны будуць ставіцца да нас лягчэй.» · 6,3 тыс. лайкаў Свікс Latent Space«Пачакайце... вы прадаяце падкасты??!»

Фінансаванне

  • OpenAI — $122 мільярды пры ацэнцы $852 мільярды. Amazon да $50 мільярдаў, NVIDIA $30 мільярдаў, SoftBank $30 мільярдаў. Упершыню доступ для прыватных інвестараў ($3 мільярды праз банкаўскія размеркаванні).
  • Mistral AI — $830 мільёнаў пазыкі ад 7 банкаў (BNP Paribas, HSBC, Bpifrance ды іншых) на 13 800 чыпаў NVIDIA GB300 і дата-цэнтр пад Парыжам.
  • Physical Intelligence — перамовы на ~$1 мільярд пры ацэнцы $11 мільярдаў. Каманда экс-DeepMind і Стэнфарда, робататэхніка.
Чатыры кампаніі (OpenAI, Anthropic, xAI, Waymo) захапілі каля 65% усяго глабальнага VC за Q1.

Набыцці

Сем набыццяў OpenAI у 2026 (Convogo, Torch Health, Crixet, OpenClaw, Promptfoo, Astral, TBPN) — амаль столькі ж, колькі за ўвесь 2025 год.

Звальненні

Назіраем за IPO

  • Anthropic — кастрычнік 2026, Nasdaq. Goldman Sachs і JPMorgan як вядучыя. Мэтавая ацэнка $400–500 мільярдаў, раўнд $60+ мільярдаў. Выручка $19 мільярдаў у гадавым вылічэнні.
  • OpenAI — ціск расце пасля раўнду на $852 мільярды. Выручка $2 мільярды на месяц, але прагнозны мінус $57 мільярдаў у 2027 годзе.
  • SpaceX — роад-шоў у чэрвені 2026, прыцягненне ~$75 мільярдаў. Стане найбуйнейшым IPO ў гісторыі, перасягнуўшы $29 мільярдаў Saudi Aramco (2019).

Запускі прадуктаў

  • Google Gemma 4 — Apache 2.0, ад ~2 мільярдаў эфектыўных параметраў да 31 мільярда (dense), кантэкст да 256K.
  • Alibaba Qwen 3.6-Plus — кантэкст у 1 мільён токенаў, SWE-bench 78,8, ~$0,40 за мільён токенаў (міжнародны API).
  • Мадэлі Microsoft MAI — транскрыпцыя (#1 на FLEURS), голас, відарыс (#3 на Arena).
  • Hugging Face TRL v1.0 — бібліятэка для пост-трэніроўкі, 75+ метадаў, 3 мільёны загрузак на месяц.
Андрэй Карпаці
Андрэй Карпаці даследчык ШІ, экс-OpenAI/Tesla · «Базы ведаў на LLM»

«LLM піша і падтрымлівае ўсе дадзеныя гэтай вікі. Я рэдка дакранаюся да яе напрамую.»

Карпаці выпусціў самы віральны твіт пра ШІ за тыдзень. Ён апісаў, як кідае сырыя артыкулы, навуковыя працы і дадзеныя ў тэчку — агент ШІ іх чытае, піша рэзюмэ, звязвае ідэі і вядзе структураваную markdown-вікі ў Obsidian. Праз два дні працяг пра «файлы ідэй» набраў 25+ тысяч лайкаў: «Агент іншага чалавека падладзіць і пабудуе гэта пад вашыя патрэбы.» За 48 гадзін GitHub-гіст набраў 5000+ зорак і 2600+ форкаў, а рэалізацыі з'явіліся ў кожным фрэймворку.

Твіт у X · 53+ тыс. лайкаў, 18+ млн праглядаў · адказалі Лекс Фрыдман, Джэк Дорсі, Харысан Чэйс

Сара Гуо
Сара Гуо партнёр Conviction · «Цёмны код»

«Ёсць прабел паміж „мы рухаемся хутка“ і „мы не можам сказаць вам, што наша сістэма зрабіла з вашымі дадзенымі на мінулым тыдні“. Мы ўступаем у эпоху збытку праграмнага забеспячэння, і адпраўка прадукта да таго, як ты цалкам разумееш, што пабудаваў, — гэта не слабасць характару. Гэта тое, як ты канкурыруеш.»

Гуо напісала самы падрабязны разбор таго, што сама назвала «вельмі дрэнным тыднем у бяспецы» — склала каталог атакі TeamPCP на ланцуг пастаўкі (якая затым «атруціла» LiteLLM, Telnyx, Mercor, Cisco), захопу npm-пакета axios, уцечкі Claude Code і ўразлівасці канфігурацыі Railway. Яе фармулёўка: «Гэта не правалы нядбайнасці, а тое, што адбываецца, калі сістэмы і працэсы працуюць, як задумана, і ўсё роўна іх немагчыма растлумачыць ад пачатку да канца.» Асобна яна звярнула ўвагу на аўтаномнага агента Harvey: «Інтэлект танее, а меркаванне і каардынацыя — дарагія.»

Эсэ „Цёмны код“ · некалькі тэмаў

Харысан Чэйс
Харысан Чэйс CEO LangChain · Тры ўзроўні навучання агента

«Памяць не павінна быць замкнёная ўнутры прапрыетарнага каркаса або за прапрыетарным API.»

Чэйс апублікаваў артыкул, у якім апісаў, як агенты могуць удасканальвацца на трох узроўнях: Мадэль (вагі — дорага, павольна), Каркас (правілы, інструменты і працоўныя працэсы вакол мадэлі — хутка, высокі ўзровень уплыву), Кантэкст (тое, што памятае агент — хутка, танна, накапляльна). У якасці прыкладу навучання на ўзроўні каркаса ён спасылаўся на працу Meta Harness, а навучанне на ўзроўні кантэксту, паводле яго слоў, — гэта, па сутнасці, памяць — абнаўленне ў гарачым шляху або фонавая апрацоўка.

Твіт-ланцуг · 874 лайкі

Клеман Дэланг
Клеман Дэланг CEO Hugging Face · Рызыка API

«Не здзіўлюся, калі флагманскія лабараторыі ў нейкі момант цалкам закрыюць свае API. У свеце з абмежаванымі вылічальнымі рэсурсамі яны заўсёды будуць аддаваць прыярытэт сваім уласным прадуктам і кліентам. Страшна і неўстойліва будаваць толькі на іх API!»

Дэланг падмацаваў гэта дзеяннямі — апублікаваў канкрэтныя тэрмінальныя каманды для лакальнага запуску Gemma 4 з OpenClaw, паказаў, як Gemma 4 працуе прама ў браўзеры праз transformers.js, і выклаў некалькі інструкцый па лакальнай наладцы на працягу тыдня. Яго ідэя: запасны выхад існуе, і ён адкрыты.

Твіт · 491 лайк

Сайман Уілісан
Сайман Уілісан стваральнік Datasette · Пласт бяспекі

Даследаванні бяспекі з дапамогай ШІ «перажываюць свой момант».

Уілісан завёў новы тэг на сваім блогу, каб адсочваць даследаванні бяспекі, у якіх выкарыстоўваецца ШІ — ужо 11 запісаў. Ён звярнуў увагу на сацыяльна-інжынерны пачатак атакі на axios: узлом пачаўся не з кода, а з маніпуляцыі жывым мэйнтэйнерам. Таксама ён выступіў у подкасце Lenny's Podcast з 99-хвіліннай гутаркай пра агентную распрацоўку і працягу некалькіх гадзін пасля рэлізу пратэставаў тры з чатырох памераў Gemma 4 лакальна.

Тэг у блогу · Lenny's Podcast