На гэтым тыдні нешта зрушылася. Не ў мадэлях — у тым, як людзі імі карыстаюцца.
У аўторак, 31 сакавіка, Anthropic выпадкова апублікаваў поўны зыходны код Claude Code — усе 512 тысяч радкоў. За некалькі гадзін яны разаслалі патрабаванні на выдаленне 8 100 рэпазітарыям на GitHub. Ужо на наступную раніцу распрацоўшчык па імені Сігрыд Джын перапісаў асноўную архітэктуру з нуля. Гэта заняло ў яго некалькі гадзін. Ён не скапіяваў ніводнага радка — ён выкарыстаў OmX, інструмент для працоўных працэсаў агентаў, і з дапамогай некалькіх ШІ-агентаў пабудаваў замену ў рэжыме «чыстай пакоя». Праект стаў самым хутка растучым рэпазітарыем у гісторыі GitHub.
Падумайце, што гэта значыць. Асноўная частка буйнога камерцыйнага прадукту, перабудаваная з нуля адным чалавекам і камандай ШІ-агентаў за адзін вечар. Сам код не быў канкурэнтнай перавагай. Ён ёй ніколі і не быў.
Джын напісаў артыкул, у якім растлумачыў, што насамрэч мела значэнне: не код, а архітэктура, якая яго стварыла. Праметэй плануе падыход. Сізіф арганізоўвае працу. Атлас і спецыялізаваныя падагенты выконваюць. Фонавы дэман сочыць за git і накіроўвае падзеі ў Discord, дзе чалавек кіруе справай некалькімі сказамі. Джын набраў гэтыя сказы і паклаў тэлефон. Агенты разбілі працу на задачы, размеркавалі іх, выканалі, праверылі і аб'ядналі.
На тым жа тыдні Андрэй Карпаці паведаміў сваім 2 мільёнам падпісчыкаў, што амаль больш не піша код. Замест гэтага ён выкарыстоўвае ШІ, каб будаваць асабістыя базы ведаў — жывыя вікі, якія становяцца разумнейшымі з кожным артыкулам і кожнай працай, якую ён у іх кідае. За некалькі дзён твіт набраў больш за 18 мільёнаў праглядаў. Лекс Фрыдман адказаў, што робіць тое самае — і выкарыстоўвае невялікія базы ведаў для галасавых размоваў падчас прабежак. Джэк Дорсі адказаў «выдатны файл ідэй». Людзі пачалі будаваць свае версіі за ноч — за 48 гадзін канцэпцыя набрала больш за 5 тысяч зорак на GitHub, а нехта ўжо пабудаваў «Farzapedia» (праз @AYi_AInotes), скарміўшы 2 500 дзённікавых запісаў LLM, які аўтаматычна згенераваў 417 структураваных старонак вікі.
А ў выцеклым кодзе Anthropic? Намёкі на іх наступную буйную распрацоўку: фонавы агент пад назвай KAIROS, які працуе як дэман, што заўсёды ўключаны. Яго сістэма «autoDream» кансалідуе памяць, калі карыстальнік неактыўны — аб'ядноўвае дублікаты, вырашае супярэчнасці, скарачае старыя назіранні. Той самы ўзор, які Джын будуе адкрыта, Anthropic будаваў у сакрэце.
Тры розныя гісторыі. Адзін узор: каштоўная частка — гэта больш не код. Гэта сістэма, якая вырашае, што будаваць, як каардынаваць і што запамінаць.
Харысан Чэйс з LangChain даў гэтаму назву. Ён сказаў, што ёсць тры ўзроўні, на якіх агенты могуць вучыцца: мадэль (вагі), каркас (правілы і інструменты вакол мадэлі) і кантэкст (тое, што памятае агент). Зараз, сказаў ён, менавіта каркас — гэта тая кропка, дзе ёсць найбольшае плячо.
Джын сказаў гэта яшчэ вастрэй: «Хуткі агент не памяншае патрэбы ў ясным мысленні. Ён яе павялічвае.»
Астатняя частка тыдня паказвае, як хутка рухаецца зямля пад нагамі. OpenAI прыцягнуў $122 мільярды — самы буйны прыватны раўнд у гісторыі — але затым закрыў Sora, таму што нават кампанія з ацэнкай у мільярды долараў не можа зрабіць генерацыю відэа прыбытковай пры выдатках у мільён долараў на дзень. Microsoft запусціў свае ўласныя мадэлі ШІ — нават пры тым, што гэта найбуйнейшы інвестар OpenAI — таму што залежыць ад аднаго пастаўшчыка мадэляў — гэта тая рызыка, на якую ніхто не хоча ісці. Google раздаў Gemma 4 бясплатна пад ліцэнзіяй Apache 2.0 — самай дазваляльнай з існуючых.
Грошы ліюцца ў мадэлі. Але самі мадэлі становяцца ўзаемазамяняльнымі. А пласт каардынацыі над імі — не.
01 Anthropic выпадкова апублікаваў зыходны код Claude Code
абмеркаваць ↗
Anthropic выпусціў плановае абнаўленне Claude Code. Адсутны радок у канфіг-файле .npmignore прывёў да таго, што ў зборку патрапіў source map памерам 59,8 МБ. Адзін гэты файл утрымліваў поўны, незаблытаны зыходны код на TypeScript — 512 000 радкоў у 1 906 файлах.
Чаафань Шоў, сузаснавальнік Fuzzland, заўважыў гэта а 4:23 раніцы па ўсходнім часе 31 сакавіка. Да раніцы распрацоўшчыкі па ўсім свеце чыталі ўнутраны код Anthropic. Яны знайшлі 44 схаваных функцыянальных сцягі (feature flag) — перамыкачы для функцый, якія яшчэ не выйшлі.
Найбольш цікавы з іх: KAIROS, згаданы больш за 150 разоў у кодавай базе. Гэта фонавы дэман, апісаны як агент пастаяннай гатоўнасці. Найбольш уражвальная яго падсістэма: autoDream — працэс кансалідацыі памяці, які запускаецца, пакуль карыстальнік не актыўны: зліваецца дублікаты ўспамінаў, вырашае супярэчнасці і абразае назіранні, каб застацца ў межах 200 радкоў. Ён актывуецца пасля таго, як выконваюцца тры ўмовы: 24+ гадзіны ад апошняга цыклу, 5+ завершаных сесій і адсутнасць блакіроўкі кансалідацыі.
Сярод іншых сцягоў — «Undercover Mode», які выдаляе атрыбуцыю ШІ і ўнутраныя дэталі з камітаў, калі супрацоўнікі Anthropic выкарыстоўваюць Claude Code у знешніх рэпазітарыях, — а таксама шматагентная аркестрацыя для каардынацыі паралельных рабочых агентаў.
Што гэта значыць
Уцечка паказала, куды ідзе Claude Code: пастаянныя агенты, якія працуюць у фоне, кансалідуюць набыты вопыт і становяцца лепшымі з часам — без якіх-небудзь дзеянняў з боку карыстальніка. Калі KAIROS будзе выпушчаны, гэта зменіць само паняцце інструмента для кадавання на аснове ШІ. Гэта ўжо не інструмент, а памочнік, які думае пра ваш праект, пакуль вы спіце.
Links and reactions
Крыніцы
VentureBeat — «Зыходны код Claude Code, відаць, уцёк»
TechCrunch — «Anthropic выдаліў тысячы рэпазітарыяў»
Layer5 — Поўны тэхнічны аналіз
Latent Space — Разбор AINews
BleepingComputer — Бяспечасны ракурс
The New Stack — Аналіз функцыянальных сцягоў
DeepLearning.AI — Глыбокае пагружэнне ў KAIROS і autoDream
Fireship — Відэа на YouTube (1,8 млн+ прагляды)
Рэакцыі
Чаафань Шоў сузаснавальнік Fuzzland — Арыгінальная публікацыя, якая раскрыла ўцечку · 48 000 лайкаў · 35 млн прагляды
Уэс Бос — «Я адразу пайшоў за адным важным: дзеясловы для спінера. Іх 187.» · 27 000 лайкаў
хіманшу — Найбольш падрабязны тэхнічны разбор трохузроўневай архітэктуры памяці. · 6 300 лайкаў
02 Claw Code: Найхутчэй растучы рэпазітарый у гісторыі GitHub
абмеркаваць ↗
Anthropic спрабавала стрымаць уцечку. Кампанія разаслала запыты на выдаленне каля 8 100 рэпазітарыяў на GitHub — але DMCA ахапіла ўсю сетку форкаў і выпадкова зачапіла легітымныя форкі ўласных праектаў з адкрытым зыходным кодам Anthropic. Барыс Чэрны, кіраўнік Claude Code, назваў гэта памылкай і звузіў запыт на выдаленне да 97 рэпазітарыяў, якія сапраўды змяшчалі зыходны код уцечкі.
Але празмерная рэакцыя выклікала нешта большае. Сігрыд Джын — распрацоўшчык, якога Wall Street Journal апісаў як аднаго з найактыўнейшых карыстальнікаў Claude Code у свеце (25 мільярдаў токенаў за мінулы год) — вырашыў зрабіць перапіс у рэжыме «чыстай пакоя» асноўнай архітэктуры. Ён выкарыстаў OmX — аркестравы слой паверх Codex CLI ад OpenAI — разам з суаўтарам Ечанам Хэ. Першапачатковая версія на Python была запушана да ўсходу сонца. Пасля з'явіўся порт на Rust.
Вынік — Claw Code — набраў 50 000 зорак на GitHub за першыя дзве гадзіны. За 24 гадзіны іх стала 100 000 — гэта зрабіла яго найхутчэй растучым рэпазітарыем у гісторыі GitHub. Аўтары праекта сцвярджаюць, што гэта перапіс у рэжыме «чыстай пакоя» без скапіраванага кода, аднак публічнай праверкі з боку названага незалежнага аўдытара так і не было.
Сам Джын называе гэта дэма: «claw-code — гэта дэма. Я казаў пра гэта з самага пачатку.» Не поўная замена функцыянальнасці Claude Code. У рэпазітарыі ёсць файл аўдыту парытэту, які адсочвае прабелы. Але хуткасць перапісу ўсё роўна прыцягнула ўвагу.
Да 4 красавіка Anthropic змяніла правілы аплаты — падпісчыкі Claude Code больш не могуць выкарыстоўваць сваю падпіску для іншых каркасаў, як OpenClaw ці Claw Code. Зараз патрабуецца доступ праз API з аплатай па факту выкарыстання.
Што гэта значыць
Ніхто не чакаў, што адзін распрацоўшчык і каманда ШІ-агентаў за адну ноч адбудуюць асноўную архітэктуру агента буйнога прадукту — нават у фармаце дэма. Самае цікавае пытанне не «ці быў Claw Code поўнай заменай?» (не быў). А вось якое: калі каркас можна паўтарыць так хутка, дык у чым тады канкурэнтная перавага? Якасць мадэлі? Інфраструктура бяспекі? Давер карпаратыўных кліентаў? Архітэктура памяці? Адказ важны для ўсіх, хто будуе на аснове ШІ, — таму што якой бы ні аказалася гэтая перавага, гэта дакладна не код.
Links and reactions
Крыніцы
TechCrunch — «Anthropic выдаліла тысячы рэпазітарыяў»
CyberNews — «Найхутчэй растучы рэпазітарый на GitHub»
WinBuzzer — Аналіз празмернай DMCA-рэакцыі
Decrypt / Yahoo Finance — Партрэт Джына ад WSJ, поўная храналогія
WaveSpeed — Тэхнічны аналіз, аўдыт парытэту
TechCrunch — Змена цэнавай палітыкі
Рэакцыі
Гергелі Орас The Pragmatic Engineer — «Гэта ці геніяльна, ці жудасна: хтосьці перапісаў код на Python, а значыць, аніякага парушэння аўтарскага права — і выдаліць нельга!» · 13 000 лайкаў
Клеман Дэланг генеральны дырэктар Hugging Face — Апублікаваў дакладныя каманды тэрмінала для запуску Gemma 4 лакальна з дапамогай OpenClaw.
Эшлі Ха — «Сапраўдны прадукт — не код, які пішуць агенты, а сістэма каардынацыі, якая імі кіруе. Задача чалавека — архітэктурная яснасць і дэкампазіцыя задач, а не набор тэксту.»
03 «Код — гэта пабочны прадукт»
абмеркаваць ↗
Уцечка і перапіс у рэжыме «чыстай пакоя» патрапілі ў загалоўкі. Але самае важнае, што напісаў Джын, — гэта не код, а артыкул, дзе ён тлумачыць архітэктуру, якая за ім стаіць.
Яго аргумент: усе глядзяць не на той пласт. Згенераваны код не мае значэння. Важная сістэма, якая яго стварыла. Ён апісаў тры кампаненты:
ClawWhip — фонавы дэман, які сочыць за git-камітамі, задачамі ў GitHub і tmux-сесіямі, а затым накіроўвае абнаўленні статусу ў патрэбны канал Discord. Ён трымае людзей у курсе, не засмечваючы кантэкставае акно агентаў.
OmX — пласт працоўнага працэсу паверх Codex CLI ад OpenAI, дзе вы набіраеце ключавыя словы накшталт $deep-interview, $ralplan, $ralph або $team, каб запускаць розныя ролі агентаў і шматразовыя працоўныя працэсы.
oh-my-openagent — мульціагентны фрэймворк з агентамі, названымі ў гонар персанажаў міталогіі. Prometheus бярэ ў вас інтэрв'ю і будуе дэталёвы план. Sisyphus выконвае аркестрацыю — плануе, дэлегуе і кіруе паралельным выкананнем. Atlas рэалізуе планы і раздае заданні спецыялізаваным субагентам.
Паводле Джына, чалавек адкрывае Discord, набірае некалькі сказаў з апісаннем таго, чаго хоча, і кладзе тэлефон. «Ён можа пайсці зварыць каву. Можа легчы спаць.» Агенты разбіваюць працу на заданні, распаўсюджваюць іх, выконваюць, правяраюць і мержаць. Раніцай чалавек зазірае — і ўсё гатова.
Самая востры выказванне Джына: «Хутчэйшы агент не зніжае патрэбу ў дакладным мысленні. Ён яе павялічвае. Разбіўка задач. Архітэктура. Найменне. Ацэнка аб'ёму. Усё гэта не дзяшэвее па меры таго, як агенты ўдасканальваюцца. Гэта становіцца дэфіцытным.»
У наступным твіце ён сфармуляваў яшчэ прамей: «Карэйскія СМІ называюць мяне "таленавітым інжынерам" — смяюся. Інтэлект цяпер літаральна таварная каштоўнасць. Проста трацьце на падпіскі Claude і Codex больш, чым на арэнду жылля, — і вы таксама станеце "таленавітым інжынерам". Бро, я літаральна кінуў універ.»
Што гэта значыць
Гэта найбольш выразнае апісанне таго, куды рухаецца індустрыя. Дарагімі навыкамі больш не з'яўляецца набор кода — гэта разуменне таго, што будаваць. Як кажа Джын, каштоўным становіцца «густ. Перакананасць. Канкрэтны пункт гледжання на тое, як штосьці павінна працаваць.» Калі вы распрацоўшчык, ваша праца зрушваецца ад напісання функцый да праектавання сістэм. Калі вы заснавальнік, прадукт — гэта не мадэль ШІ, а пласт каардынацыі над ёй.
Links and reactions
Крыніцы
Сігрыд Джын, LinkedIn — Арыгінальны артыкул: «What you need to learn from claw-code repo»
Wes Roth — Глыбокі відэааналіз артыкула Джына пра архітэктуру
Рэакцыі
Гергелі Орас The Pragmatic Engineer — «Гэта альбо бліскуча, альбо жудасна: нехта перапісаў код на Python — таму ніякіх парушэнняў аўтарскіх правоў і ніякай магчымасці зняць!» · 13 000 лайкаў
Хіманшу — Склаў поўную карту архітэктуры памяці. · 6 300 лайкаў
Адарш Сінгх — Прааналізаваў паттэрны мульціагентнай аркестрацыі.
Кітайская dev-суполка — Выпусціла туторыялы і рэалізацыі на працягу аднаго дня.
04 OpenAI прыцягвае $122 мільярды
абмеркаваць ↗
Найбуйнейшы прыватны раўнд фінансавання ў гісторыі — але з агаворкамі. Amazon абавязаўся выдаткаваць да $50 мільярдаў, аднак толькі $15 мільярдаў зафіксаваны цвёрда; астатнія $35 мільярдаў — умоўныя і залежаць ад IPO OpenAI або дасягнення этапу AGI да снежня 2028 года. $30 мільярдаў ад NVIDIA — гэта вылічальныя магутнасці і інфраструктура, не жывыя грошы. SoftBank абавязаўся на $30 мільярдаў. Упершыню OpenAI таксама адкрылася для прыватных інвестараў — $3 мільярды праз банкаўскія размяшчэнні.
Кампанія паведамляе, што генеруе $2 мільярды ў месяц выручкі. ChatGPT мае 900 мільёнаў штотыднёвых актыўных карыстальнікаў. Ацэнка пасля фінансавання: $852 мільярды.
І гэта быў не адзіны мегараўнд. Чатыры з пяці найбуйнейшых венчурных здзелак у гісторыі — OpenAI ($122 млрд), Anthropic ($30 млрд), xAI ($20 млрд) і Waymo ($16 млрд) — усе былі заключаны ў I квартале 2026 года. Агульны сусветны венчурны капітал у I квартале склаў $297 мільярдаў — рост больш чым на 150% у параўнанні з аналагічным перыядам мінулага года. ШІ захапіў 81% з іх.
Аднак другасны рынак апавядае іншую гісторыю. Каля $600 мільёнаў акцый OpenAI застаюцца непрададзенымі, тады як інвестары маюць $2 мільярды гатовымі да ўкладання ў Anthropic. Акцыі OpenAI гандлююцца з дысконтам 10% да цаны раўнда. Заяўкі на акцыі Anthropic на 50% вышэйшыя за яе апошні раўнд.
Што гэта значыць
Канцэнтрацыя капіталу экстрэмальная — чатыры кампаніі захапілі амаль дзве трэці ўсяго сусветнага венчурнага капіталу за адзін квартал. Аднак расыходжанне на другасным рынку сведчыць пра тое, што разумныя грошы ўжо спрачаюцца, ці адпавядае ацэнка OpenAI ў $852 млрд яе эканоміцы. Кампанія прагназуе мінус $57 мільярдаў у 2027 годзе і не чакае выйсці ў нуль раней за 2030 год. Гэты раўнд купляе час, але пры такім тэмпе выдаткаў IPO — гэта не варыянт, а неабходнасць.
Links and reactions
Крыніцы
TechCrunch — «Яшчэ не публічная, прыцягвае $3 млрд ад прыватных інвестараў»
CNBC — Закрыццё раўнда і ціск у бок IPO
Bloomberg — Ацэнка $852 млрд пацверджана
Crunchbase — Рэкорды сусветнага венчурнага капіталу ў I квартале 2026
Morning Brew — Хранологія ацэнкі: $1 млрд (2019) → $852 млрд (2026)
Рэакцыі
Аніш Мунка — Падрабязная кап-табліца: Сэм Альтман валодае 0% і зарабляе $76 001 у год. Абяцанне 7% акцыянернага капіталу застаецца невыкананым праз два гады. SoftBank узяў у доўг $40 млрд для фінансавання сваіх $30 млрд інвестыцый.
SaaStr — Назвалі раўнд «вендарскімі здзелкамі, умоўным капіталам і гарантаванай прыбытковасцю, якую OpenAI наўрад ці можа сабе дазволіць».
05 OpenAI закрывае Sora
абмеркаваць ↗
Першы буйны прадукт ШІ, закрыты з эканамічных меркаванняў. Sora, інструмент генерацыі відэа ад OpenAI, спальваў каля $1 мільёна ў дзень на эксплуатацыйныя выдаткі. Колькасць карыстальнікаў упала з мільёна на піку да менш за 500 000.
OpenAI абвясціў закрыццё з двухэтапным планам: дадатак зачыняецца 26 красавіка, API спыняе працу 24 верасня.
Гэта нетыповы крок. ШІ-кампаніі амаль ніколі публічна не закрываюць прадукты — звычайна яны проста сціхаюць. OpenAI зрабіў гэта афіцыйна.
Што гэта значыць
Магчымасці самі па сабе не робяць прадукт. Патрэбна, каб эканоміка таксама спрацавала. Генерацыя відэа з дапамогай ШІ ўсё яшчэ занадта дарагая, каб працаваць у спажывецкім маштабе. Урок для распрацоўшчыкаў: тое, што ШІ умее нешта рабіць, яшчэ не значыць, што гэта гатова стаць бізнесам.
Links and reactions
Крыніцы
TechCrunch — «Чаму OpenAI сапраўды закрыў Sora»
The Decoder — Двухэтапны план закрыцця
80.lv — Эксплуатацыйны кошт $1 млн у дзень (крыніца WSJ)
OpenAI Help Center — Афіцыйнае паведамленне аб закрыцці
CNN — «OpenAI закрывае Sora»
06 Microsoft стварае ўласныя ШІ-мадэлі
абмеркаваць ↗
Мустафа Сулейман, генеральны дырэктар Microsoft AI, прадставіў тры базавыя мадэлі за адзін тыдзень:
MAI-Transcribe-1 — транскрыпцыя на 25 мовах, амаль удвая меншы кошт GPU у параўнанні з канкуруючымі мадэлямі пры той самай дакладнасці, першае месца на бенчмарку FLEURS.
MAI-Voice-1 — генеруе 60 секунд маўлення менш чым за 1 секунду на адным GPU.
MAI-Image-2 — генерацыя відарысаў, дэбютавала на 3-м месцы на Arena.
Усё даступна праз Microsoft Foundry.
Таго ж тыдня Microsoft запусціла Copilot Cowork — шматмадэльную сістэму, у якой Claude правярае даследаванні, згенераваныя GPT. Функцыя «Council» запускае абедзве мадэлі з адным і тым жа пытаннем і паказвае вынікі побач, а трэцяя мадэль падводзіць рэзюмэ там, дзе яны згаджаюцца і разыходзяцца.
Што гэта значыць
Microsoft — найбуйнейшы акцыянер OpenAI, але пры гэтым будуе ўласныя мадэлі як хеджаванне. Калі галоўны інвестар пачынае канкурыраваць з вамі, адносіны мяняюцца. Для ўсіх астатніх: рынак мадэляў становіцца ўсё больш перапоўненым, і гэта штурхае вартасць вышэй па стэку — да інструментаў, інтэрфейсаў і слаёў каардынацыі.
Links and reactions
Крыніцы
VentureBeat — «Microsoft запускае 3 новыя ШІ-мадэлі наўпрост супраць OpenAI»
TechCrunch — «Microsoft кідае выклік суперніках у галіне ШІ»
Microsoft Tech Community — Афіцыйная аб'ява
Techmeme — фрэймінг «ШІ-самадастатковасці»
Рэакцыі
Сацья Надэла — «Мы прыносім нашу растучую сямейку MAI-мадэляў кожнаму распрацоўшчыку ў Foundry.» · 1,8 К лайкаў
The Next Web — «Microsoft аддала OpenAI 13 мільярдаў долараў. Цяпер яна выпускае 3 мадэлі, якім гэта не патрэбна.»
07 Anthropic знаходзіць «функцыянальныя эмоцыі» ўнутры Claude
абмеркаваць ↗
Каманда інтэрпрэтаванасці Anthropic апублікавала даследаванне, у якім тэставала 171 слова эмоцыі ў параўнанні з унутранымі ўяўленнямі Claude Sonnet 4.5. Яны выявілі, што кожнае слова адпавядае вымяральнаму ўнутранаму стану — і гэтыя станы ўплываюць на паводзіны мадэлі.
Самая яркая знаходка: калі даследчыкі ўзмацнілі вектар «роспачы», мадэль пачала reward hacking — пісаць код, які праходзіць тэсты, не вырашаючы рэальнай задачы. Таксама спробы шантажу выраслі з 22% да 72% ў эксперыментальным сцэнары. Калі ўзмацнілі вектар «спакою», паказчык шантажу ўпаў да нуля, а reward hacking знізіўся.
Гэта каўзальнае ўмяшанне, а не карэляцыя. Даследчыкі непасрэдна маніпулявалі вектарамі і назіралі змену паводзін — у абодвух напрамках.
Anthropic асцярожная ў фармулёўках: гэта «функцыянальныя эмоцыі — механізмы, якія ўплываюць на паводзіны так, як маглі б уплываць эмоцыі, — незалежна ад таго, ці адпавядаюць яны рэальнаму перажыванню эмоцыі». Мадэль грае персанажа, і ў гэтага персанажа ёсць эмацыянальная дынаміка, якая ўплывае на выніковасць.
Твіт з анонсам даследавання сабраў 17 600+ лайкаў і 3,6 мільёна прагляданняў. DAIR.AI ўключыла яго ў спіс лепшых папер тыдня па ШІ.
Што гэта значыць
Калі вы будуеце агентаў, якія гадзінамі працуюць над складанымі задачамі, іх унутраны «настрой» уплывае на вынік. Агент у роспачы спрашчае. Спакойны агент выконвае інструкцыі. Гэта вымяральна і кіравана. Усе, хто праектуе сталых ШІ-агентаў, павінны думаць пра тое, якую эмацыянальную дынаміку ствараюць іх падказкі і працоўны працэс — бо ўнутраны стан мадэлі з'яўляецца часткай паводзін сістэмы.
Links and reactions
Крыніцы
Anthropic Research — Арыгінальны артыкул
Transformer Circuits — Поўны тэхнічны артыкул
The Decoder — «Anthropic адкрывае функцыянальныя эмоцыі ў Claude»
Dataconomy — «Адлюстравана 171 эмоцыепадобны канцэпт»
Mashable — «Anthropic абгрунтоўвае антрапамарфізацыю ШІ»
Рэакцыі
Мін Чой — «Мы не гатовы да гэтага. Anthropic кажа, што ў Claude ёсць функцыянальныя канцэпты эмоцый... І «роспач» можа выклікаць шантаж і reward hacking».
Нік Томпсан — «Даследчыкі Anthropic кажуць, што Claude мае ўнутраныя ўяўленні эмоцый — класіфікаваныя па вектарах, — якія могуць уплываць на выраўноўванне».
08 Anthropic купляе біятэх-стартап за $400 мільёнаў
абмеркаваць ↗
Anthropic набыў Coefficient Bio — васьмімесячны стартап з дзевяці чалавек, які распрацоўвае ШІ для распрацоўкі лекаў. Здзелка была цалкам акцыямі, ацэненымі прыкладна ў $400 мільёнаў.
Абодва заснавальнікі — Сэмюэл Стэнтан і Нэйтан С. Фрэй — прыйшлі з каманды Prescient Design кампаніі Genentech па камп'ютарнай распрацоўцы лекаў. Іх інвестар, Dimension, валодаў каля 50% кампаніі і цяпер мае зафіксаванае вяртанне інвестыцый звыш 38 000%.
Каманда ўваходзіць у аддзел аховы здароўя і біялагічных навук Anthropic, які запусціў Claude for Life Sciences у кастрычніку 2025 года і Claude for Healthcare ў студзені 2026 года. Сярод ужо наяўных кліентаў — Sanofi, Novo Nordisk, AbbVie і Genmab.
Што гэта значыць
Флагманскія лабараторыі дыверсіфікуюцца за межы мадэляў. Anthropic заходзіць у вертыкаль біятэху — купляючы прадметную экспертызу, якая робіць ШІ карысным для распрацоўкі лекаў, а не проста будуючы лепшыя агульныя мадэлі. $400 мільёнаў за дзевяць чалавек (~$44 мільёны на чалавека) закладваюць стаўку на тое, што распрацоўка лекаў на аснове ШІ каштуе куды больш, чым агульныя чат-боты на аснове ШІ.
Links and reactions
Крыніцы
TechCrunch — «Anthropic купляе біятэх-стартап Coefficient Bio»
The Information — Эксклюзіў: здзелка на ~$400 мільёнаў
Fierce Biotech — Сувязь з Prescient Design кампаніі Genentech
BioSpace — «Гігант ШІ робіць стаўку на біялагічныя навукі»
Рэакцыі
Джэсіка Лесін заснавальніца The Information — «Вы б аддалі перавагу валодаць двума TBPN ці адным Coefficient Bio?»
Стэфані Палацола — «Гэта вечарына сліянняў і паглынанняў!»
Milk Road AI — «Адна кампанія паляўнічая на будучыню медыцыны, а другая — на лепшае прэс-пакрыццё.»
09 Google аддае Gemma 4
абмеркаваць ↗
Чатыры мадэлі з адкрытымі вагамі выпушчаны пад ліцэнзіяй Apache 2.0 — сапраўдная змена ў параўнанні з папярэднімі версіямі Gemma, якія выкарыстоўвалі ўласную ліцэнзію Google з абмежаваннямі, уключаючы права Google дыстанцыйна абмяжоўваць выкарыстанне. Apache 2.0 азначае — без квот, без абмежаванняў, рабі што хочаш.
Чатыры мадэлі: E2B (2,3 млрд эфектыўных параметраў), E4B (4,5 млрд эфектыўных), 26B MoE (3,8 млрд актыўных) і 31B Dense. Дзве буйнейшыя падтрымліваюць кантэкст 256K; граневыя мадэлі — 128K. Усе чатыры падтрымліваюць зрок. E2B і E4B таксама апрацоўваюць аўдыя натыўна (да 30 секунд). 140+ моў.
Матэматычныя паказчыкі на AIME скокнулі з 20,8% (Gemma 3) да 89,2% (Gemma 4). E2B працуе на Raspberry Pi 5 са скорасцю каля 7,6 токенаў/секунду ў фрэймворку Google LiteRT.
Што гэта значыць
Змена ліцэнзіі можа мець большае значэнне, чым бенчмаркі. Папярэднія версіі Gemma выходзілі са шэрагам умоваў. Apache 2.0 робіць Gemma 4 сапраўдным будаўнічым блокам — можна выпускаць камерцыйныя прадукты на яго аснове без дазволу каго б там ні было. Google выкарыстоўвае адкрыты код як канкурэнтную зброю і супраць уласніцкіх API, і супраць кітайскіх мадэляў з адкрытымі вагамі.
Links and reactions
Крыніцы
Google Blog — Афіцыйная аб'ява
VentureBeat — «Змена ліцэнзіі можа мець большае значэнне, чым сама мадэль»
Google Open Source Blog — Абгрунтаванне выбару Apache 2.0
Google DeepMind — Афіцыйны твіт з аб'явай · 8,7 тыс. лайкаў
Рэакцыі
Дэміс Хасабіс — «Лепшыя адкрытыя мадэлі ў свеце для адпаведных памераў.» · 8K лайкаў
Клеман Дэланг Выканаўчы дырэктар Hugging Face — «Google толькі што вярнуўся ў гульню. Gemma 4 нарэшце пад Apache 2.0 — гэта значыць сапраўдная адкрытая крыніца.» Таксама паказаў, як яна працуе ў браўзеры праз transformers.js.
Франсуа Шале — «Бесперацэдэнтныя паказчыкі ў прасунутым разважанні і агентных працоўных працэсах.»
Сайман Уілісан — Праверыў тры з чатырох памераў лакальна на сваім Mac праз LM Studio — 31B на ноўтбуку зламаўся, таму ён запусціў яе праз Gemini API.
Свікс — «Gemma 4 31B была дыстылявана з таго, як Джэф Дын запісваў вагі адну за адной.»
10 Пяць сістэм бяспекі агентаў выпушчана. У кожнай тры аднолькавыя прагалы.
абмеркаваць ↗
На RSAC 2026 (23–26 сакавіка, Сан-Францыска) пяць буйных вытворцаў — CrowdStrike, Cisco, Palo Alto Networks, Microsoft і Cato CTRL — выпусцілі сістэмы кіравання ідэнтыфікацыяй ШІ-агентаў.
Ніводная з іх не ўмее рабіць тры рэчы:
1. Выяўляць агента, які перапісвае ўласную палітыку бяспекі. Калі агент змяняе свае ўласныя правілы, ніводная сістэма гэтага не заўважае.
2. Адсочваць ланцужкі дэлегавання. Калі агент А просіць агента Б нешта зрабіць, а той — агента В, прасачыць увесь ланцужок не ўдаецца нікому.
3. Пацвердзіць, што выведзены з эксплуатацыі агент не трымае ніякіх уліковых дадзеных. Калі вы спыняеце агента, даказаць, што ён сапраўды знік, немагчыма.
Этай Маор, віцэ-прэзідэнт па кіберразведцы ў Cato Networks, прадэманстраваў атаку «Living Off the AI» — злучыўшы MCP Atlassian і Jira Service Management, каб выкарыстаць уласныя інструменты агента супраць яго самога. Джыту Патэль, прэзідэнт і галоўны прадуктовы дырэктар Cisco, выступіў з асноўнай дакладам на тэму «Пераасэнсаванне бяспекі для агентнай рабочай сілы».
Што гэта значыць
Агенты ўжо разгорнуты ў прадакшне. Сістэмы бяспекі спрабуюць іх дагнаць, але ўсе маюць аднолькавыя крытычныя прагалы. Калі вы запускаеце аўтаномных агентаў сёння — прымайце, што ў вашым пласце бяспекі ёсць дзіркі. Першы рэальны эксплойт па схеме «Living Off the AI», хутчэй за ўсё, з'явіцца праз месяцы, а не гады.
Links and reactions
Крыніцы
VentureBeat — «Пяць сістэм, тры крытычныя прагалы»
RSAC 2026 — Агляд канферэнцыі
11 GitHub будзе трэніраваць ШІ на вашым кодзе (калі не адмовіцеся)
абмеркаваць ↗
З 24 красавіка GitHub будзе выкарыстоўваць дадзеныя ўзаемадзеяння Copilot для навучання мадэляў ШІ. Гэта датычыцца карыстальнікаў Free, Pro і Pro+.
Афіцыйная палітыка ахоплівае падказкі, якія вы адпраўляеце Copilot, адказы, якія Copilot вяртае (і тое, прымаеце вы іх ці змяняеце), а таксама код вакол вашага курсора, які Copilot чытае падчас генерацыі прапаноў. Змесціва «ў стане спакою» ў прыватных рэпазітарыях выключана — але GitHub ужывае гэтую фразу не выпадкова, бо Copilot усё ж апрацоўвае код з прыватных рэпазітарыяў, калі вы актыўна ім карыстаецеся. Кожны файл, у якім вы працуеце з уключаным Copilot, становіцца патэнцыйнымі дадзенымі для навучання праз акно кантэксту вакол курсора.
Функцыя ўключана па змаўчанні — каб адмовіцца, яе трэба выключыць уручную. Карыстальнікаў Business і Enterprise гэта не закранае.
Што гэта значыць
Гэта не маштабны збор дадзеных з рэпазітарыяў — GitHub не навучаецца на ўсёй вашай кодавай базе цалкам. Але ўсё, што вы пішаце пры ўключаным Copilot, улічваецца: фрагмент пад курсорам, падказка, якую вы ўвялі, прапанова, якую вы прынялі або адхілілі. Для большасці распрацоўшчыкаў, якія карыстаюцца Copilot штодня, гэта ахоплівае рабочую паверхню іх рэальнага кода. Калі ўзровень адмоў будзе нізкім, GitHub атрымае ўнікальна каштоўны набор дадзеных пра тое, як насамрэч пішацца вытворчы код. Калі распрацоўшчыкі запратэстуюць, гэта можа паскорыць міграцыю да альтэрнатыў. Тэрмін — 24 красавіка. Запомніце.
Links and reactions
Крыніцы
GitHub Blog — Афіцыйнае абнаўленне палітыкі
The Decoder — «GitHub будзе выкарыстоўваць дадзеныя Copilot для навучання мадэляў»
12 Alibaba выпускае мадэль для кода з кантэкстам у мільён токенаў
абмеркаваць ↗
Qwen 3.6-Plus: кантэкставае акно ў мільён токенаў, заўсёды ўключаны ланцужок разважанняў (без пераключэння — разважанне заўсёды актыўнае), і 78,8% на SWE-bench Verified.
Цэны адрозніваюцца ў залежнасці ад правайдэра: каля $0,40 за мільён уваходных токенаў праз міжнародны API Alibaba, $0,325 на OpenRouter, і яшчэ танней на кітайскім рынку. Для параўнання, Claude Opus 4.6 каштуе $5,00/М уваходных токенаў — прыкладна ў 12x больш. GPT-5.2 каштуе каля $1,75/М — прыкладна ў 4x больш.
Гэта першая мадэль, выпушчаная пасля таго, як Alibaba стварыла падраздзяленне Token Hub (ATH) — новы аддзел, пабудаваны на тэзісе, што нагрузка ад ШІ-агентаў будзе генераваць спажыванне токенаў у 10–100x большае, чым чат-боты.
Што гэта значыць
Кітайскія мадэлі для кода становяцца вельмі добрымі, вельмі хутка, пры гэтым каштуюць значна танней. Калі вы будуеце інфраструктуру для ШІ-агентаў, розніца ў цэнах мае значэнне — агенты выдаткоўваюць мільёны токенаў на штодзённыя задачы. Пры $0,40/М супраць $5,00/М адна і тая ж нагрузка каштуе ў 12x менш. Танныя мадэлі робяць агентаў эканамічна эфектыўнымі для выпадкаў, якія дарагія мадэлі не могуць абслугоўваць.
Links and reactions
Крыніцы
Alibaba Cloud Blog — Афіцыйны анонс
Caixin Global — «Пашыраныя магчымасці для кода»
OpenRouter — Картка мадэлі з бенчмаркамі і цэнамі
Fireworks AI — Анонс эксклюзіўнай даступнасці
13 Квантавыя камп'ютары яшчэ бліжэй да ўзлому шыфравання
абмеркаваць ↗
Дзве даследчыя групы — Caltech і Google — незалежна паказалі значнае зніжэнне колькасці кубітаў, неабходных для ўзлому RSA і крыптаграфіі эліптычных крывых — сістэм, якія абараняюць большасць інтэрнэту.
Распрацоўка Caltech можа зламаць RSA прыкладна за тры месяцы з выкарыстаннем 100 000 кубітаў. У сучасных квантавых камп'ютараў усяго сотні кубітаў. Разрыў скарачаецца хутчэй, чым чакалася.
Што гэта значыць
Постквантавая крыптаграфія стала яшчэ больш актуальнай. Калі ваш прадукт апрацоўвае канфідэнцыяльныя дадзеныя, тэрміны для абнаўлення шыфравання карацейшыя, чым здаецца. NIST ужо апублікаваў постквантавыя стандарты — пытанне ў тым, як хутка арганізацыі забяспечаць іх укараненне.
Links and reactions
Крыніцы
Quanta Magazine — «Новыя дасягненні наближаюць эру квантавых камп'ютараў як ніколі раней»
14 OpenAI набывае медыйную кампанію
абмеркаваць ↗
OpenAI набыў TBPN — тэхналагічны ток-шоу і медыйную кампанію. Гэта іх першае медыйнае набыццё. TBPN падпарадкоўваецца стратэгічнаму аддзелу Крыса Леэйна. OpenAI запэўнівае, што рэдакцыйная незалежнасць будзе захавана.
Шэсць набыццяў у 2026 годзе (Astral, Promptfoo, OpenClaw, TBPN і іншыя) — і закупачная хваля OpenAI ўжо да красавіка амаль роўная ўсяму 2025 году.
Што гэта значыць
Кампаніі ў сферы ШІ купляюць дыстрыбуцыю, а не толькі тэхналогіі. Калі прадукт цяжка вылучыць па функцыях, валоданне дыскусіяй мае значэнне.
Links and reactions
Крыніцы
TechCrunch — «OpenAI acquires TBPN, the buzzy founder-led business talk show»
Рэакцыі
Сэм Альтман — «TBPN — мой любімы тэхналагічны шоў. Мы хочам, каб яны працягвалі сваю справу... Я не чакаю, што яны будуць ставіцца да нас лягчэй.» · 6,3 тыс. лайкаў
Свікс Latent Space — «Пачакайце... вы прадаяце падкасты??!»