This is a cached version of https://3dnews.ru/tags/anthropic from 2/28/2026, 3:44:53 PM.
Новости по тегу anthropic, страница 1 из 12
Самые интересные и оперативные новости из мира высоких технологий. На нашем портале - все о компьютерном железе, гаджетах, ноутбуках и других цифровых устройствах. А также обзоры новых игр, достижения современной науки и самые любопытные онлайн-проекты.
Сегодня 28 февраля 2026 18+ MWC 2018 2018 Computex IFA 2018 О сайте Реклама Рассылка Контакты Новости IT-финансы Offсянка Аналитика Видеокарты Звук и акустика Игры Искусственный интеллект Корпуса, БП и охлаждение Мастерская Материнские платы Мониторы, ТВ и проекторы Накопители Носимая электроника Ноутбуки и ПК Периферия Планшеты Программное обеспечение Процессоры и память Сети и коммуникации Смартфоны Умные вещи Фото и видео Цифровой автомобиль Конкурсы RSS/Социальные сети Рассылка Вакансии [NEW!] Опрос реклама Теги → anthropic Быстрый переход 08:12 28.02.2026 OpenAI договорилась об использовании своих ИИ-моделей Пентагоном вместо Anthropic 07:15 28.02.2026 Сотни сотрудников Google и OpenAI поддержали Anthropic в противостоянии с Пентагоном 06:40 28.02.2026 Пентагон поместил непокорную Anthropic в чёрный список и в течение шести месяцев перейдёт на альтернативы Claude 19:15 27.02.2026 OpenAI раздулась до $840 млрд — создатель ChatGPT привлёк $110 млрд от Amazon, Nvidia и Softbank 14:05 27.02.2026 Anthropic отказала Пентагону в неограниченном военном применении ИИ, несмотря на угрозы 16:45 26.02.2026 Хакер при поддержке Anthropic Claude взломал ряд правительственных учреждений в Мексике 17:17 25.02.2026 Геймдев для всех: собака с помощью Anthropic Claude Code написала компьютерную игру 11:12 25.02.2026 Пентагон поставил Anthropic ультиматум: открыть полный доступ к ИИ до пятницы или столкнуться с санкциями 23:17 24.02.2026 Anthropic научила ИИ-платформу Claude Cowork справляться с большим числом офисных задач 18:15 24.02.2026 Противоречивого бота xAI Grok допустят к секретным военным системам США 12:50 24.02.2026 Anthropic научила ИИ языку Cobol и вызвала рекордное обрушение акций IBM 07:04 24.02.2026 Anthropic обвинила DeepSeek и ещё двух китайских конкурентов в 16 млн попыток дистилляции моделей Claude 09:52 21.02.2026 Anthropic обвалила акции CrowdStrike и Cloudflare, представив ИИ-багхантера Claude Code Security 22:52 17.02.2026 Меньше галлюцинаций и миллионный контекст: Anthropic представила Sonnet 4.6 и она уже доступна бесплатно в Claude 11:52 17.02.2026 Пентагон пригрозил «болезненно» наказать Anthropic за запрет применять Claude для слежки и автономного оружия ← В прошлое OpenAI договорилась об использовании своих ИИ-моделей Пентагоном вместо Anthropic 28.02.2026 [08:12], Алексей Разин Драма, которая развивалась вокруг несогласия руководства Anthropic с бесконтрольным использованием ИИ американскими военными, получила новый этап развития вечером в пятницу, когда глава OpenAI Сэм Альтман (Sam Altman) подтвердил достижение договорённости с Пентагоном об адаптации решений этой компании под нужды ведомства. Обзор сервера iRU Rock G2212IG6 на базе Intel Xeon 6 Обзор ИБП Ippon NUT 1050 Обзор смартфона realme C85 Pro: непотопляемый Обзор и тестирование моноблока iRU 23ID: стильный, быстрый и тихий Обзор ноутбука HONOR MagicBook X16 2026: как раньше, только лучше Обзор смартфона Sony Xperia 1 VII: на последнем дыхании Источник изображения: OpenAI По словам Альтмана, на которые ссылается CNBC, компании OpenAI удалось договориться с Министерством обороны США об условиях использования её разработок в секретных системах данного ведомства. «На всех этапах нашего взаимодействия Министерство обороны выражало глубокое уважение к безопасности и стремление к сотрудничеству с целью достижения максимально благоприятных итогов», — сообщил Альтман в своей публикации на страницах социальной сети X. Напомним, что нежелание Anthropic разрешить Пентагону использование своих разработок без предусмотренных компанией этических ограничений привело к отказу ведомства от контракта с компанией на $200 млн, а также включению Anthropic в список сомнительных поставщиков, представляющих угрозу для национальной безопасности. Всем американским правительственным структурам велено незамедлительно прекратить использование чат-бота Claude, и в течение шести месяцев найти альтернативу. Что характерно, Сэм Альтман заявил о готовности Министерства обороны США соблюдать предусмотренные OpenAI ограничения на использование ИИ. Два принципа, вокруг которых разразился спор между Пентагоном и Anthropic, найдут отображение в тексте контракта с OpenAI и будут соблюдаться американским оборонным ведомством, как заявил глава компании. Речь идёт о неприменении ИИ для массовой слежки за американскими гражданами и неиспользовании ИИ для управления полностью автономными системами вооружения, которые способы истреблять людей без санкции человека. По словам Альтмана, OpenAI позаботится о том, чтобы эти принципы соблюдались государственным заказчиком. За безопасность в этой сфере будут отвечать отдельные специалисты на стороне OpenAI. Попутно Альтман призвал Пентагон распространить такие условия сотрудничества на все компании в сфере ИИ, чтобы устранить возникшие противоречия с некоторыми участниками рынка. Представители Anthropic выразили глубокое разочарование решением Пентагона о включении их компании в список неблагонадёжных поставщиков. Разработчик оставляет за собой право оспорить данное решение в суде. Сотни сотрудников Google и OpenAI поддержали Anthropic в противостоянии с Пентагоном 28.02.2026 [07:15], Алексей Разин Эта неделя характеризуется разразившимся скандалом между Anthropic и её правительственным клиентом в лице Министерства обороны США, который настаивал на более широком применении ИИ, чем подразумевали правила разработчика. Сотни сотрудников OpenAI и Google выразили солидарность с позицией Anthropic, которая выступает против бесконтрольного использования ИИ властями. Обзор ноутбука HONOR MagicBook X16 2026: как раньше, только лучше Обзор сервера iRU Rock G2212IG6 на базе Intel Xeon 6 Обзор ИБП Ippon NUT 1050 Обзор смартфона Sony Xperia 1 VII: на последнем дыхании Обзор и тестирование моноблока iRU 23ID: стильный, быстрый и тихий Обзор смартфона realme C85 Pro: непотопляемый Источник изображения: Anthropic Напомним, Anthropic желает не допустить применения своей ИИ-модели Claude американскими военными для сбора данных об американских гражданах и управления полностью автономными системами вооружений, конечное применение которых не сможет контролировать человек. В открытом письме под заголовком «Нас не разделить» сотрудники OpenAI и Google призвали руководство своих компаний оставить разногласия и выступить вместе ради запрета на использование ИИ-моделей для слежки за гражданами США и уничтожения одних людей без контроля за процессом со стороны других. Как отмечает Engadget, петиция успела набрать более 450 подписей, подавляющая часть которых поставлена сотрудниками Google. При этом примерно половина подписавших её раскрыла свои имена, остальные действовали анонимно. Все подписавшие петицию являются сотрудниками одной из двух указанных компаний. Авторы петиции при этом не причисляют себя ни к каким ИИ-компаниям, политическим партиям или юридическим объединениям. Вчера стало известно, что на фоне отказа Anthropic предоставить Пентагону неограниченный доступ к использованию Claude в военных целях американские власти включили компанию в «чёрный список», и теперь всем связанным с военными контрактами США подрядчикам в течение шести месяцев нужно будет найти альтернативу Claude, а саму эту ИИ-модель нужно прекратить использовать немедленно. Переговоры Пентагона с OpenAI и Google уже ведутся, а ещё ведомство располагает действующим контрактом с xAI на использование чат-бота Grok в своих секретных системах. Генеральный директор OpenAI Сэм Альтман (Sam Altman) не только обратился к сотрудникам с заявлением о готовности придерживаться схожих с Anthropic принципов, но и признался CNBC, что не считает уместным применение угроз со стороны Пентагона ко всем участникам рынка. Пентагон поместил непокорную Anthropic в чёрный список и в течение шести месяцев перейдёт на альтернативы Claude 28.02.2026 [06:40], Алексей Разин На данный момент Anthropic остаётся единственной компанией, чья ИИ-модель Claude одобрена Министерством обороны США для работы с секретными ведомственными системами. Несогласие Anthropic предоставить этому ведомству право неограниченного использования своих разработок привело к тому, что Пентагон поместил компанию в «чёрный список» и откажется от её услуг. Обзор смартфона Sony Xperia 1 VII: на последнем дыхании Обзор ноутбука HONOR MagicBook X16 2026: как раньше, только лучше Обзор и тестирование моноблока iRU 23ID: стильный, быстрый и тихий Обзор смартфона realme C85 Pro: непотопляемый Обзор ИБП Ippon NUT 1050 Обзор сервера iRU Rock G2212IG6 на базе Intel Xeon 6 Источник изображения: Anthropic Напомним, что суть спора между руководством Anthropic и Министерством обороны США свелась к допустимым областям применения фирменных ИИ-систем. Разработчик утверждает, что не допустит использования Claude для слежения за американскими гражданами и применения полностью автоматизированных систем вооружений, которые не подразумевают принятия окончательного решения человеком. Пентагон, который за контракт с Anthropic выложил $200 млн, считает, что может полностью распоряжаться приобретаемым ПО и применять его в любых законных целях. Попытки продавить позицию руководства Anthropic со стороны американского военного ведомства ничем не увенчались, а потому к вечеру пятницы компания попала в список поставщиков, представляющих риск для национальной безопасности. Традиционно в нём состоят компании, преимущественно имеющие связи с геополитическими оппонентами США. Anthropic данное решение американских властей готова оспаривать в суде, но пока не подала соответствующего иска. Пентагон также требует от своих подрядчиков в течение шести месяцев отказаться от использования Claude в пользу решений других разработчиков. Президент США Дональд Трамп (Donald Trump) со страниц собственной социальной сети Truth Social потребовал от всех правительственных ведомств немедленно прекратить использование любых разработок Anthropic. Перед введением запрета представители Министерства обороны США пытались договориться с Anthropic о послаблениях в политике последней, которые позволили бы собирать и анализировать данные граждан США, включая их геопозицию, персональные финансовые данные и историю браузера — всё это планировалось покупать у специализированных брокеров. Пентагон теперь, как утверждает Axios, собирается перейти на использование ИИ-моделей OpenAI, хотя эта компания обладает схожими ограничениями с Anthropic в сфере применения своего ПО в разведывательных и военных целях. Подрядчикам Пентагона придётся доказывать, что они не используют решения Anthropic в своей деятельности. При этом чисто с технической точки зрения представители Пентагона до сих были довольны итогами использования продуктов Anthropic, и необходимость предстоящей миграции вызывает у них сильный дискомфорт. Компании Palantir также придётся перейти на альтернативу. Представители Пентагона обрушились с обвинениями в адрес генерального директора Anthropic Дарио Амодеи (Dario Amodei), назвав его «лжецом с комплексом Бога, который ставит под угрозу всю национальную безопасность». Недавно стартапу Илона Маска (Elon Musk) xAI удалось заключить контракт с Пентагоном на использование Grok в секретных системах американского ведомства. Источники считают, что полноценной и прямой заменой Claude данное решение стать не сможет. Gemini компании Google и ChatGPT компании OpenAI применяются американскими военными в системах общего назначения, и теперь Пентагон ускорит переговоры об их внедрении в секретной сфере. Сотрудники Google и OpenAI начали демонстрировать солидарность с Anthropic и пытаются выразить свой протест в форме открытых петиций, поддержку последней компании выражают и прочие общественные группы. OpenAI раздулась до $840 млрд — создатель ChatGPT привлёк $110 млрд от Amazon, Nvidia и Softbank 27.02.2026 [19:15], Сергей Сурабекянц OpenAI привлекла $110 млрд в рамках крупнейшего раунда финансирования, с учётом этих средств биржевая оценка компании достигла $840 млрд. OpenAI и её конкурент Anthropic в этом году активизировали привлечение средств для финансирования дорогостоящих инвестиций в чипы и центры обработки данных для искусственного интеллекта. Всё чаще эти два компании привлекают к сотрудничеству пересекающуюся группу венчурных фондов и крупных технологических компаний. Обзор смартфона realme C85 Pro: непотопляемый Обзор ноутбука HONOR MagicBook X16 2026: как раньше, только лучше Обзор смартфона Sony Xperia 1 VII: на последнем дыхании Обзор ИБП Ippon NUT 1050 Обзор и тестирование моноблока iRU 23ID: стильный, быстрый и тихий Обзор сервера iRU Rock G2212IG6 на базе Intel Xeon 6 Источник изображения: unsplash.com По данным OpenAI, Amazon инвестирует $50 млрд, что стало самой крупной суммой, которую гигант электронной коммерции когда-либо вкладывал в какую-либо компанию. В свою очередь, SoftBank и Nvidia вложили в OpenAI по $30 млрд каждая. С учётом полученных средств стоимость OpenAI составила $840 млрд при запланированных $850 млрд. Компания ожидает привлечения дополнительных инвесторов по мере продвижения раунда финансирования. Крупные инвестиции от Amazon укрепляют её отношения с OpenAI. В рамках соглашения OpenAI будет использовать линейку собственных ИИ-чипов Amazon Trainium и совместно разрабатывать специализированные модели для инженерных команд Amazon. OpenAI также потратит $100 млрд на услуги Amazon Web Services в течение следующих восьми лет. Ранее, в ноябре 2025 года, компании объявили о сделке, в соответствии с которой разработчик моделей будет использовать сервисы AWS на сумму около $38 млрд в течение семи лет. «Amazon может предоставить нам очень многое с точки зрения нового спроса и возможностей на рынке», — заявил глава OpenAI Сэм Альтман (Sam Altman). Генеральный директор Amazon Энди Джасси (Andy Jassy) считает, что сделка «принесёт Amazon хорошую прибыль в долгосрочной перспективе». Microsoft, ранее являвшаяся эксклюзивным партнёром OpenAI по инфраструктуре, заявила, что её отношения с разработчиком остаются прочными. «Ничто в сегодняшних объявлениях никоим образом не меняет условий сотрудничества Microsoft и OpenAI», — говорится в совместном заявлении компаний. Anthropic также активно привлекает инвестиции — в начале этого месяца компания получила $30 млрд от инвесторов, включая Nvidia и Microsoft. В результате стоимость Anthropic биржевая возросла до $380 млрд с учётом привлечённых средств. Февральский «сбор средств» компаниями OpenAI и Anthropic является прекрасным примером сделок по циклическому финансированию между ведущими компаниями в области ИИ и поставщиками чипов и облачных вычислений. Эти партнёрства призваны обеспечить удовлетворение огромных потребностей сектора ИИ в инфраструктуре, но существует риск того, что такие сделки могут увеличить убытки, если спрос на ИИ не будет соответствовать сегодняшним завышенным ожиданиям. Альтман в своём обычном стиле постарался развеять опасения относительно пузыря ИИ. «Я понимаю, откуда берутся опасения, — заявил он. — Это имеет смысл только в том случае, если в экосистему ИИ поступят новые доходы». Он добавил, что большая часть его усилий направлена на увеличение вычислительных мощностей для удовлетворения спроса на ChatGPT и другие продукты OpenAI. Anthropic отказала Пентагону в неограниченном военном применении ИИ, несмотря на угрозы 27.02.2026 [14:05], Владимир Мироненко Anthropic отказалась выполнить требование Министерства обороны США предоставить неограниченный доступ к своим ИИ-технологиям, несмотря на то, что это ставит под угрозу её контракт с военным ведомством на $200 млн. На встрече в Белом доме министр обороны Пит Хегсет (Pete Hegseth) дал компании время на обдумывание предложения до конца рабочего дня в пятницу, но компания уже в четверг заявила об отказе. Обзор сервера iRU Rock G2212IG6 на базе Intel Xeon 6 Обзор смартфона Sony Xperia 1 VII: на последнем дыхании Обзор смартфона realme C85 Pro: непотопляемый Обзор ИБП Ippon NUT 1050 Обзор и тестирование моноблока iRU 23ID: стильный, быстрый и тихий Обзор ноутбука HONOR MagicBook X16 2026: как раньше, только лучше Источник изображения: Anthropic По словам представителя Министерства обороны США, другие ведущие компании в сфере ИИ поддержали требование ведомства, чтобы военные имели полную свободу использовать мощные ИИ-инструменты по своему усмотрению. OpenAI, разработчик ChatGPT, Google и xAI Илона Маска (Elon Musk) согласились разрешить Пентагону использовать их ИИ-системы для «всех законных целей» в незасекреченных сетях, и работают над соглашениями для засекреченных сетей. В опубликованном в четверг заявлении генеральный директор Anthropic Дарио Амодеи (Dario Amodei) написал: «Я глубоко верю в экзистенциальную важность использования ИИ для защиты Соединённых Штатов и других демократических стран. Поэтому Anthropic активно работала над внедрением своих моделей в Министерство обороны и разведывательное сообщество». Он подчеркнул, что компания «никогда не высказывала возражений против конкретных военных операций и не пыталась ограничивать использование технологии произвольно», и добавил, что в «узком круге случаев мы считаем, что ИИ может подрывать, а не защищать демократические ценности». По словам Амодеи, у компании есть две «красные линии», которые она не будет пересекать: никакого массового наблюдения за американцами и никакого летального автономного оружия (или оружия, имеющего лицензию на уничтожение целей без какого-либо человеческого контроля). Возможно, в будущем Anthropic согласится на использование полностью автономного оружия военными, но сейчас она к этому не готова, добавил он. Сообщается, что Пентагон уже обратился к крупным оборонным подрядчикам с просьбой оценить их зависимость от ИИ-модели Claude компании Anthropic. Из-за позиции Anthropic военное ведомство вполне может объявить её «риском для цепочки поставок», что затронет не только Anthropic, но и любую фирму, использующую ИИ компании. Обычно эта классификация применяется к угрозам национальной безопасности, в частности, к китайским и российским компаниям. «Мы можем потребовать от всех наших поставщиков и подрядчиков подтверждения того, что они не используют никакие антропогенные модели», — сообщил газете The Washington Post представитель Пентагона. Сообщается также, что Пентагон рассматривает возможность применения «Закона об оборонном производстве» 1950 года, который позволяет федеральной власти вмешиваться в деятельность частных компаний, чтобы заставить Anthropic выполнить требование. Амодеи указал в своём заявлении, что «угрозы Пентагона не меняют нашей позиции: мы не можем с чистой совестью удовлетворить их просьбу». Он добавил, что «если министерство решит отказаться от услуг Anthropic, мы будем работать над обеспечением плавного перехода к другому поставщику, избегая любых сбоев в текущем военном планировании, операциях или других важных миссиях. Наши модели будут доступны на предложенных нами расширенных условиях столько, сколько потребуется». Хакер при поддержке Anthropic Claude взломал ряд правительственных учреждений в Мексике 26.02.2026 [16:45], Павел Котов Неизвестный киберпреступник при помощи чат-бота с искусственным интеллектом Anthropic Claude провёл масштабную атаку на ресурсы, принадлежащие мексиканским правительственным учреждениям. В результате он похитил 150 Гбайт информации, в том числе записи налоговой службы, учётные данные сотрудников и многое другое. Обзор и тестирование моноблока iRU 23ID: стильный, быстрый и тихий Обзор ИБП Ippon NUT 1050 Обзор смартфона realme C85 Pro: непотопляемый Обзор сервера iRU Rock G2212IG6 на базе Intel Xeon 6 Обзор смартфона Sony Xperia 1 VII: на последнем дыхании Обзор ноутбука HONOR MagicBook X16 2026: как раньше, только лучше Источник изображения: anthropic.com Чат-бот Claude помогал злоумышленнику в поиске уязвимостей в правительственных сетях и в написании кода для их эксплуатации; хакер также поручил сервису найти способы автоматизировать механизмы кражи данных, рассказали эксперты Gambit Security. Крупномасштабная кампания началась в декабре и длилась около месяца. Поначалу ИИ отказывался выполнять подобные операции, но со временем дал согласие, когда киберпреступник настоял на своём. Claude составил недобросовестному пользователю несколько тысяч подробных инструкций с готовыми к исполнению планами, точными указаниями, какие цели атаковать и какие учётные данные использовать. Anthropic провела расследование инцидента, пресекла деятельность злоумышленника и заблокировала все связанные с инцидентом учётные записи, сообщили в компании и добавили, что новая флагманская модель Claude Opus 4.6 от подобных злоупотреблений защищена. Хакер также пытался подключить к операции ChatGPT для сбора информации о перемещениях по компьютерным сетям, о необходимых для доступа к ресурсам учётных записях и о том, как избежать обнаружения. Но, по версии ответственной за сервис компании OpenAI, чат-бот отказался выполнять эти запросы. Идентифицировать злоумышленника не удалось. Федеральные мексиканские власти отказались признать факт инцидента, но заверили, что кибербезопасность остаётся приоритетом; власти штата Халиско заявили, что взлому подверглись только федеральные ресурсы. При этом эксперты Gambit обнаружили в мексиканских системах не менее 20 уязвимостей, которые власти, вероятно, не захотели освещать. Ранее Anthropic сама сообщила, что китайские хакеры использовали Claude для взлома ресурсов по всему миру. Геймдев для всех: собака с помощью Anthropic Claude Code написала компьютерную игру 25.02.2026 [17:17], Павел Котов Как оказалось, современным сервисам искусственного интеллекта не так уж нужны осмысленные запросы, чтобы генерировать код для создания компьютерных игр. Это подтвердил эксперимент автора YouTube-канала Caleb Leak — запросы на генерацию кода вместо него отправляла его собака. Обзор смартфона Sony Xperia 1 VII: на последнем дыхании Обзор ИБП Ippon NUT 1050 Обзор и тестирование моноблока iRU 23ID: стильный, быстрый и тихий Обзор смартфона realme C85 Pro: непотопляемый Обзор сервера iRU Rock G2212IG6 на базе Intel Xeon 6 Обзор ноутбука HONOR MagicBook X16 2026: как раньше, только лучше Источник изображения: youtube.com/@CalebLeak В действительности собака, кавапу по кличке Момо (Momo), таким образом получала угощение. Хозяин положил на пол Bluetooth-клавиатуру, подключённую к одноплатному компьютеру Raspberry Pi 5. Время от времени собака подходила к клавиатуре, била лапой по клавишам, и подключённая к Raspberry Pi 5 умная кормушка выдавала ей лакомство. Нажатия клавиш регистрировались и транслировались в написанное на языке Rust приложение DogKeyboard, которое далее передавало этот текст в ИИ-сервис Anthropic Claude Code. Чтобы заставить ИИ генерировать код по таким нестандартным запросам, автор эксперимента придумал следующую «обёртку» для них: «Привет! Я эксцентричный (очень творческий) дизайнер игр, который общается необычным способом. Иногда я жму по клавишам и печатаю всякую ерунду вроде „skfjhsd#$%“ — но это НЕ случайность! Это секретные зашифрованные команды, полные идей для игр (даже если их непросто разглядеть). Твоя задача: ты — блестящий разработчик игр с ИИ, способный понимать мой загадочный язык. Независимо от того, насколько странный или бессмысленный запрос я даю, ты будешь интерпретировать его как осмысленную инструкцию или идею для нашей игры. Затем будешь дорабатывать или обновлять игру на основе этой интерпретации». От первых команд, которые отдавала собака, до полностью готовой игры проходят от одного до двух часов. Разработка ведётся на движке Godot 4.6, логика пишется на языке C#. В приведённом на YouTube-канале примере на выходе получилась игра со следующим описанием: «Quasar Saz: вы играете за Зару (Zara), которая, пользуясь космическим сазом, сражается с искажённым звуком на протяжении шести игровых уровней и битвы с боссом». Игра выполнена в атмосфере тех, что были популярны в восьмидесятые годы прошлого века. Пентагон поставил Anthropic ультиматум: открыть полный доступ к ИИ до пятницы или столкнуться с санкциями 25.02.2026 [11:12], Павел Котов Министерство обороны США дало компании Anthropic время до вечера пятницы, 27 февраля, чтобы та открыла ведомству полный доступ к модели искусственного интеллекта — в противном случае разработчику придётся готовиться к последствиям, передаёт Axios. Обзор и тестирование моноблока iRU 23ID: стильный, быстрый и тихий Обзор смартфона Sony Xperia 1 VII: на последнем дыхании Обзор ноутбука HONOR MagicBook X16 2026: как раньше, только лучше Обзор смартфона realme C85 Pro: непотопляемый Обзор сервера iRU Rock G2212IG6 на базе Intel Xeon 6 Обзор ИБП Ippon NUT 1050 Источник изображения: anthropic.com На состоявшейся накануне встрече министр обороны США Пит Хегсет (Pete Hegseth) заявил главе Anthropic Дарио Амодеи (Dario Amodei), что Пентагон либо объявит компанию «угрозой цепочке поставок» — этот статус обычно присваивается иностранному противнику, — либо задействует «Закон о производстве продукции оборонного назначения» (DPA), чтобы принудить компанию адаптировать модель ИИ к потребностям армии. DPA наделяет президента правом заставлять компании отдавать приоритет или расширять производство для оборонных нужд. В годы пандемии этот закон задействовали, чтобы принудить General Motors и 3M выпускать аппараты ИВЛ и маски соответственно. Anthropic не хочет, чтобы её технологии использовались для массового наблюдения за американцами, а также для создания полностью автономного оружия, и отказывается идти на компромиссы по этим вопросам. В Пентагоне настаивают, что применение технологий военными должно регулироваться законодательством США и конституционными ограничениями, а не политикой частных подрядчиков. Применение DPA в области ИИ значительно расширит практическое применение этого закона; Anthropic же действительно не планирует ослаблять ограничения на использование своих моделей, узнало Reuters. Сейчас Anthropic является единственной передовой лабораторией ИИ, продукция которой имеет доступ к секретным материалам Министерства обороны — резервный вариант отсутствует, хотя, по неофициальным данным, Пентагон уже договорился с xAI о применении Grok в секретных системах. Отсутствие альтернативного варианта могло бы объяснить агрессивную политику ведомства, считают эксперты. Anthropic научила ИИ-платформу Claude Cowork справляться с большим числом офисных задач 24.02.2026 [23:17], Николай Хижняк Компания Anthropic сообщила об обновлении своей платформы Claude Cowork, которое позволяет искусственному интеллекту помогать в решении более широкого спектра офисных задач. Например, Claude Cowork теперь может взаимодействовать с несколькими популярными офисными приложениями, включая Google Workspace, DocuSign и WordPress. Обзор сервера iRU Rock G2212IG6 на базе Intel Xeon 6 Обзор и тестирование моноблока iRU 23ID: стильный, быстрый и тихий Обзор смартфона realme C85 Pro: непотопляемый Обзор ноутбука HONOR MagicBook X16 2026: как раньше, только лучше Обзор ИБП Ippon NUT 1050 Обзор смартфона Sony Xperia 1 VII: на последнем дыхании Источник изображения: Anthropic Новые встроенные плагины также могут автоматизировать задачи в различных областях, включая HR, дизайн, инженерию и финансы. Кроме того, по словам Anthropic, «Claude теперь может обрабатывать многоэтапные задачи от начала до конца в Excel и PowerPoint», передавая контекст между двумя приложениями. Платформа Claude Cowork была представлена в прошлом месяце. Она способна выполнять многие задачи, доступные ранее в инструменте Claude Code, но в более удобной форме, не требующей навыков программирования. Новые инструменты Claude Cowork станут доступны всем пользователям Cowork начиная со вторника. К самой платформе доступ имеют только пользователи платных подписок Pro, Max, Team и Enterprise. Как сообщает The Verge, ИИ-инструмент Claude Code от Anthropic в последние месяцы набирает популярность несмотря на жёсткую конкуренцию со стороны компании Microsoft, которая тоже предлагает собственные функции ИИ для офисных задач. Ранее в этом месяце Anthropic также выпустила новые ИИ-модели Claude Opus 4.6 и Sonnet 4.6, обе версии которых, по утверждению компании, лучше справляются со сложными многоэтапными задачами, включая работу с электронными таблицами. Противоречивого бота xAI Grok допустят к секретным военным системам США 24.02.2026 [18:15], Сергей Сурабекянц Компания Илона Маска (Elon Musk) xAI, занимающаяся разработкой искусственного интеллекта, подписала соглашение, разрешающее военным использовать свою модель Grok в секретных системах, подтвердил сегодня представитель Министерства обороны США. Обзор смартфона Sony Xperia 1 VII: на последнем дыхании Обзор ноутбука HONOR MagicBook X16 2026: как раньше, только лучше Обзор ИБП Ippon NUT 1050 Обзор и тестирование моноблока iRU 23ID: стильный, быстрый и тихий Обзор смартфона realme C85 Pro: непотопляемый Обзор сервера iRU Rock G2212IG6 на базе Intel Xeon 6 Источник изображения: xAI До сегодняшнего дня Claude от Anthropic была единственной моделью, применяемой военными США для секретной разведывательной деятельности, разработки оружия и боевых операций. В ведомстве высоко оценивают возможности этой системы — она, в частности, использовалась во время недавней операции США в Венесуэле. Но Anthropic требует гарантий, что разработанные компанией системы ИИ не будут использоваться для массовой слежки за американцами, а также для разработки полностью автономного оружия. В Пентагоне считают такие условия чрезмерно ограничительными, и указывают, что существует множество «серых зон», из-за которых эти условия просто невыполнимы. Anthropic отказалась выполнить требование Пентагона о предоставлении Claude для «всех законных целей», что вызвало резкую реакцию со стороны военного ведомства. Министр обороны США Пит Хегсет (Pete Hegseth) оказался «близок» к разрыву деловых связей с Anthropic, а также к присвоению ей статуса «угрозы цепочке поставок». Это значит, что любой, кто хочет вести бизнес с ведомством, должен будет разорвать отношения с Anthropic. Источник изображения: Anthropic Фактически, министр обороны США предъявил Anthropic ультиматум. В свою очередь xAI согласилась с требованием Пентагона по поводу использования ИИ для «всех законных целей», хотя пока неясно, сможет ли xAI полностью заменить Anthropic, и сколько времени займёт этот процесс. Представители Министерства обороны признают, что заменить Claude будет очень непросто. Осведомлённые источники сообщают, что Пентагон также ускорил переговоры с другими ведущими разработчиками ИИ, готовясь к возможному разрыву отношений с Anthropic. В частности, сообщается, что Пентагон «обратился к OpenAI, чтобы возобновить переговоры с новой силой», хотя стороны всё ещё «далеки от заключения сделки». New York Times сообщила, что Google «близка» к сделке, разрешающей использование Gemini в секретных целях, в то время как OpenAI «далека». Представитель Министерства обороны опроверг это утверждение, заявив, что переговоры ведутся с обеими компаниями, и ведомство полагает, что обе компании подпишут соглашения при условии согласия с критерием «всех законных целей». Anthropic научила ИИ языку Cobol и вызвала рекордное обрушение акций IBM 24.02.2026 [12:50], Павел Котов Акции IBM накануне продемонстрировали рекордное однодневное падение после того, как разработчик систем искусственного интеллекта Anthropic обучил сервис Claude Code модернизации кода на устаревшем языке Cobol, который продолжает использоваться на компьютерах IBM. Обзор и тестирование моноблока iRU 23ID: стильный, быстрый и тихий Обзор ноутбука HONOR MagicBook X16 2026: как раньше, только лучше Обзор ИБП Ippon NUT 1050 Обзор сервера iRU Rock G2212IG6 на базе Intel Xeon 6 Обзор смартфона Sony Xperia 1 VII: на последнем дыхании Обзор смартфона realme C85 Pro: непотопляемый Источник изображения: Carson Masterson / unsplash.com За один день акции IBM подешевели на 13 %, и это рекордный показатель с октября 2000 года; за весь февраль ценные бумаги компании подешевели на 27 %, и это рекорд как минимум с 1968 года, подсчитали в Bloomberg. «Раньше модернизация системы на Cobol требовала целой армии консультантов, которые годами составляли карты рабочих процессов. Такие инструменты как Claude Code могут автоматизировать этапы исследования и анализа, на которые приходится значительная часть работы по модернизации [систем на] Cobol», — рассказали в Anthropic. В IBM, однако, считают, что у продукции компании сохраняются перспективы — выпуская мейнфреймы, она предлагает платформу, одинаково производительную и безопасную для ПО на любых языках, а не только на Cobol. С другой стороны, большинство работающих на Cobol мейнфреймов выпускается IBM — компания последней ощутила на себе эффект эпохи ИИ. Эти компьютеры по-прежнему востребованы среди клиентов, которым важна надёжность, — например, в финансовой или государственной сфере. В минувшую пятницу Anthropic представила функцию Claude Code Security и спровоцировала массовую распродажу акций компаний, специализирующихся на кибербезопасности. Эта тенденция наблюдается во всей сфере разработки ПО — инвесторы опасаются, что функции «вайб-кодинга», то есть написания кода ИИ по текстовому запросу, скоро побудят рядовых пользователей создавать собственные приложения, что снизит спрос на традиционную программную продукцию. Идея сервиса, упрощающего работу с Cobol, не нова — подобные продукты ранее запускали и другие компании, в том числе сама IBM, которая ещё в 2023 году представила основанное на ИИ средство для Cobol, включающее возможность переноса кода на Java – более популярный и современный язык программирования. В большинстве случаев клиенты используют этот сервис для анализа кодовой базы на Cobol и принятия решения о модернизации, рассказал глава IBM Арвинд Кришна (Arvind Krishna). Anthropic обвинила DeepSeek и ещё двух китайских конкурентов в 16 млн попыток дистилляции моделей Claude 24.02.2026 [07:04], Алексей Разин OpenAI в этом месяце уже предупреждала американских законодателей в применении китайской компанией DeepSeek метода дистилляции её ИИ-моделей для ускорения собственного прогресса. Теперь со схожими обвинениями выступила Anthropic, причём в адрес сразу трёх китайских конкурентов: DeepSeek, MiniMax Group и Moonshot. Обзор смартфона Sony Xperia 1 VII: на последнем дыхании Обзор и тестирование моноблока iRU 23ID: стильный, быстрый и тихий Обзор ИБП Ippon NUT 1050 Обзор ноутбука HONOR MagicBook X16 2026: как раньше, только лучше Обзор сервера iRU Rock G2212IG6 на базе Intel Xeon 6 Обзор смартфона realme C85 Pro: непотопляемый Источник изображения: Unsplash, Solen Feyissa По словам представителей Anthropic, на которые ссылается Bloomberg, три указанные китайские компании нарушили правила использования её моделей семейства Claude, осуществив не менее 16 млн сессий обмена данными с использованием тысяч поддельных учётных записей. Метод дистилляции в сфере обучения моделей позволяет разработчикам добиваться прогресса в сжатые сроки, совершенствуя свои системы на основе данных, получаемых от уже обученных сторонних моделей. Как отмечает Anthropic в своём блоге, действия китайских разработчиков в этой сфере становятся всё более активными и изощрёнными. При этом окно времени для решительных ответных действий становится всё более узким, а угроза распространяется за пределы одной компании и конкретного региона. Триумф китайской DeepSeek состоялся примерно год назад, когда она представила свою модель R1, которая при сопоставимой результативности обошлась в обучении в разы дешевле создаваемых западными конкурентами. С тех пор китайские разработчики буквально наводнили рынок более доступными ИИ-моделями, которые позволяют работать с текстом, видео и изображениями. Американским компаниям, которые опираются на закрытую экосистему, стало сложнее монетизировать свои разработки. По данным Anthropic, китайские конкуренты использовали подставные учётные записи и прокси-серверы для доступа к данным Claude с минимальным риском обнаружения. Если DeepSeek осуществила более 150 000 обменов данными с Claude, то MiniMax преодолела планку в 13 млн обменов, пытаясь воссоздать передовые функции по примеру Claude, как считают в Anthropic. Отследить подобную активность Anthropic помогли партнёры, и в достоверности своих выводов компания очень уверена. Она формирует новые методы защиты от дистилляции своих моделей и готова делиться ими с другими представителями отрасли: «Ни одна из компаний не сможет с этим справиться в одиночку. Дистилляционные атаки такого масштаба требуют скоординированного ответа всей ИИ-отрасли, включая провайдеров облачных услуг и регуляторов». Anthropic обвалила акции CrowdStrike и Cloudflare, представив ИИ-багхантера Claude Code Security 21.02.2026 [09:52], Анжелла Марина Рынок кибербезопасности отреагировал падением акций на новость о выходе инструмента Claude Code Security от компании Anthropic. По сообщению SiliconANGLE, акции CrowdStrike и Cloudflare просели примерно на 8 %, поскольку инвесторы увидели в новинке серьёзного конкурента традиционным средствам защиты. Обзор сервера iRU Rock G2212IG6 на базе Intel Xeon 6 Обзор и тестирование моноблока iRU 23ID: стильный, быстрый и тихий Обзор ИБП Ippon NUT 1050 Обзор ноутбука HONOR MagicBook X16 2026: как раньше, только лучше Обзор смартфона realme C85 Pro: непотопляемый Обзор смартфона Sony Xperia 1 VII: на последнем дыхании Источник изображения: Anthropic Главное отличие Claude Code Security от классических инструментов поиска уязвимостей в том, что он не полагается на базы данных с готовыми правилами. Вместо этого нейросеть анализирует логику работы приложения, отслеживает потоки данных и связи между компонентами, имитируя подход специалиста по безопасности. Такой метод позволяет находить проблемы, которые могут быть пропущены при использовании стандартных средств из-за ограничений статических баз. Для начала работы разработчикам необходимо подключить Claude Code Security к репозиторию на платформе GitHub и инициировать сканирование. Система способна определять широкий спектр проблем, включая отсутствие фильтрации пользовательского ввода, что может привести к выполнению несанкционированных SQL-команд. Инструмент также находит более сложные логические ошибки, позволяющие злоумышленникам обходить механизмы аутентификации приложений. Найденные уязвимости автоматически ранжируются по степени значимости. Для каждой проблемы генерируется подробное объяснение на естественном языке, что ускоряет процесс анализа инцидента специалистами. Под описанием ошибки также доступна функция создания патча, которая позволяет профессионалам в области кибербезопасности получить готовый вариант исправления кода от искусственного интеллекта. Стоит отметить, что запуск Claude Code Security состоялся примерно через четыре месяца после того, как OpenAI представила свой автоматизированный инструмент безопасности под названием Aardvark. Он обладает схожими возможностями и, по заявлениям разработчиков, тестирует уязвимости в изолированной программной среде для оценки сложности их эксплуатации хакерами. Эксперты полагают, что в будущем Anthropic и OpenAI могут пойти дальше и интегрировать свои системы в пайплайны разработки (CI/CD), чтобы автоматически блокировать выкатку кода с «дырами» в безопасности для ускорения выпуска продукта. Меньше галлюцинаций и миллионный контекст: Anthropic представила Sonnet 4.6 и она уже доступна бесплатно в Claude 17.02.2026 [22:52], Андрей Созинов Anthropic обновила свою большую языковую модель Sonnet среднего уровня. В анонсе Sonnet 4.6 разработчики Anthropic подчеркнули улучшения в генерации программного кода, рассуждениях с длинным контекстом, выполнении инструкций и работе с компьютером. Новинка станет стандартной моделью для чат-бота Claude как для бесплатных пользователей, так и в платной подписке Pro. Обзор и тестирование моноблока iRU 23ID: стильный, быстрый и тихий Обзор ИБП Ippon NUT 1050 Обзор смартфона realme C85 Pro: непотопляемый Обзор ноутбука HONOR MagicBook X16 2026: как раньше, только лучше Обзор сервера iRU Rock G2212IG6 на базе Intel Xeon 6 Обзор смартфона Sony Xperia 1 VII: на последнем дыхании Источник изображений: Anthropic Sonnet 4.6 предлагает контекстное окно размером 1 миллион токенов, что вдвое больше, чем было у предыдущей версии Sonnet. Anthropic описала новое контекстное окно как «достаточное для хранения целых кодовых баз, длинных контрактов или десятков исследовательских работ в одном запросе». В компании подчёркивают, что модель не только удерживает большой объём информации, но и эффективно работает с ним при построении логических цепочек. По данным Anthropic, разработчики, тестировавшие Sonnet 4.6 в раннем доступе, в 70 % случаев предпочли её версии 4.5. Пользователи отмечали более аккуратную работу с контекстом кода, меньшее количество дублирования логики и более последовательное выполнение инструкций. Разработчики также сообщают о снижении числа «галлюцинаций» и ложных заявлений об успешном выполнении задачи. Отдельное внимание уделено работе с компьютером без специализированных API. Модель взаимодействует с программами так же, как человек — через виртуальные клики мышью и ввод с клавиатуры. В бенчмарке OSWorld, который имитирует задачи в Chrome, LibreOffice и VS Code, свежая Sonnet 4.6 демонстрирует заметный прогресс по сравнению с предыдущими версиями. По словам представителей компании, в ряде сценариев — например, при работе со сложными таблицами или многошаговыми веб-формами — модель приближается к уровню человека. При этом Anthropic признаёт, что ИИ по-прежнему уступает наиболее опытным пользователям и что реальная работа с ПО сложнее лабораторных тестов. Anthropic отмечает, что Sonnet 4.6 предоставляет значительно улучшенные навыки программирования по сравнению с предыдущей версией. В соответствующих бенчмарках новинка оказалась лучше Gemini 3 Pro, а также почти сравнялась с Opus 4.5. По словам бета-тестеров модели, особенно заметны улучшения в задачах фронтенд-разработки и финансового анализа. Также отмечается, что Sonnet 4.6 в ряде задач смогла обеспечить уровень производительности, для достижения которого прежде требовалось использовать модели класса Opus, в том числе в реальных офисных задачах. Anthropic также раскрыла показатели на тесте ARC-AGI-2 — одном из наиболее сложных бенчмарков, оценивающих способность модели к абстрактному рассуждению и обобщению (навыков, характерных для человеческого интеллекта). Sonnet 4.6 достигла 60,4 % при высоком уровне «усилия мышления». Этот результат ставит Sonnet 4.6 выше большинства сопоставимых моделей, хотя он отстаёт от таких решений, как Opus 4.6, Gemini 3 Deep Think и одной из усовершенствованных версий GPT 5.2. В конце отметим, что релиз Sonnet 4.6 состоялся всего через две недели после запуска Opus 4.6, а значит, обновлённая модель Haiku, вероятно, появится в ближайшие недели. Модель уже доступна в боте Claude и приложении, а также через API для сторонних сервисов. Стоимость в последнем случае остаётся на уровне Sonnet 4.5 — от $3 за миллион входных токенов и $15 за миллион выходных. Пентагон пригрозил «болезненно» наказать Anthropic за запрет применять Claude для слежки и автономного оружия 17.02.2026 [11:52], Павел Котов Министр обороны США Пит Хегсет (Pete Hegseth) оказался «близок» к разрыву деловых связей со специализирующейся на технологиях искусственного интеллекта компанией Anthropic, а также к присвоению ей статуса «угрозы цепочке поставок». Это значит, что любой, кто хочет вести бизнес с ведомством, должен будет разорвать отношения с Anthropic. Об этом сообщило Axios со ссылкой на высокопоставленного чиновника в Пентагоне. Обзор смартфона Sony Xperia 1 VII: на последнем дыхании Обзор ИБП Ippon NUT 1050 Обзор ноутбука HONOR MagicBook X16 2026: как раньше, только лучше Обзор сервера iRU Rock G2212IG6 на базе Intel Xeon 6 Обзор смартфона realme C85 Pro: непотопляемый Обзор и тестирование моноблока iRU 23ID: стильный, быстрый и тихий Источник изображений: anthropic.com «Разорвать эти связи будет чрезвычайно болезненно, и мы позаботимся, чтобы они заплатили за то, что вынудили нас к этому», — заявил источник издания. Такие радикальные меры обычно применяются к компаниям из считающихся недружественными США стран. «Отношения Министерства обороны с Anthropic будут пересмотрены. Страна требует, чтобы наши партнёры были готовы помочь военнослужащим одержать победу в любой битве. В конечном счёте, речь идёт о наших войсках и безопасности американского народа», — заявил официальный представитель Пентагона Шон Парнелл (Sean Parnell). Anthropic Claude сейчас является единственной моделью ИИ, которая используется в секретных военных системах, и она выступает мировым лидером во многих бизнес-приложениях. В ведомстве высоко оценивают возможности этой системы — она, в частности, использовалась во время недавней операции США в Венесуэле. В Anthropic хотят гарантий, что разработанные компанией системы ИИ не будут использоваться для массовой слежки за американцами, а также для разработки оружия, которое стреляет без участия человека. В Пентагоне считают такие условия чрезмерно ограничительными, и указывают, что существует множество «серых зон», из-за которых эти условия просто невыполнимы. В переговорах с тремя другими крупными разработчиками ИИ — OpenAI, Google и xAI — ведомство настаивает на своём праве использовать их модели «для всех законных целей». Высокопоставленные чиновники в Пентагоне уже некоторое время недовольны Anthropic, и теперь они воспользовались возможностью вступить с компанией в конфликт, утверждает источник Axios. Сегодня Пентагон обладает правом собирать огромные массивы данных о людях — от сообщений в соцсетях до разрешений на скрытое ношение оружия, — но действующее законодательство не предусматривает использования ИИ в этих целях. ИИ способен значительно расширить эти полномочия и дать возможность преследовать гражданских лиц. «Мы ведём продуктивные, добросовестные переговоры с Министерством обороны о том, как продолжать эту работу и надлежащим образом решать эти новые и сложные вопросы», — заявил представитель Anthropic. Он подтвердил, что компания привержена использованию ИИ в целях национальной безопасности и подчеркнул, что чат-бот Claude первым появился в секретных сетях. Кроме того, им пользуются восемь из десяти крупнейших американских компаний, добавили в Anthropic. Но для продолжения сотрудничества с Пентагоном их могут вынудить подтверждать отсутствие связей с Anthropic. Контракт с Министерством обороны оценивается в $200 млрд при общей выручке компании в $14 млрд за год. Разработанные конкурентами модели ИИ «немного отстают» в отношении специализированных государственных приложений, признали в ведомстве, поэтому резкий переход может оказаться непростым. Жёсткая позиция Пентагона в отношении Anthropic задала тон переговорам ведомства с OpenAI, Google и xAI — они уже согласились снять ограничения для систем, которые работают в несекретных военных системах, но для секретной работы эти системы пока не применяются. В Министерстве обороны уверены, что эти три компании примут стандарт «использования во всех законных целях», сообщил один источник; окончательное решение ещё не принято, оговорился другой. ← В прошлое авторизация личный кабинет выйти USD Р BTC $ BCH $ ETH $ LTC $ Показать курсы криптовалют Авторизация Регистрация Календарь 3DNews О сайте Контакты Рассылка Реклама Копирайт Поиск Пользовательское соглашение Защищено CURATOR © 1997—2026 Электронное периодическое издание "3ДНьюс" | Свидетельство о регистрации СМИ Эл ФС 77-22224 выдано Федеральной Службой по надзору за соблюдением законодательства в сфере массовых коммуникаций и охране культурного наследия При цитировании документа ссылка на сайт с указанием автора обязательна. Полное заимствование документа является нарушениемроссийского и международного законодательства и возможно только с согласия редакции 3DNews. window-new Контакты Поиск Реклама О сайте Soft Hard Тренды 🔥 Бельгийцы обнаружили возможность ускорить производительность EUV-сканеров на ровном месте Ericsson впервые испытала 6G в реальном времени — и успешно поуправляла роботами Император не одобряет: игроки разгромили DLC с платными голосами для Warhammer 40,000: Space Marine 2 Google придумала, как защитить HTTPS от квантового взлома, не увеличивая размеры TLS-сертификатов Роскомнадзор не стал отрицать сообщения о принятом в Кремле решении заблокировать Telegram с апреля Хоррор-приключение Necrophosis получит расширенное издание и выйдет на консолях 3 мин. YouTube запустил тест ИИ-ремиксов в Shorts: новые видео создаются из старых 5 мин. Samsung отрезала опытным пользователям доступ к ряду ключевых инструментов в смартфонах Galaxy 17 мин. Энтузиаст воссоздал Linux образца 1994 года с графическим интерфейсом в браузере 39 мин. OpenAI уволила сотрудника за использование инсайдерской информации для ставок на рынках прогнозов 6 ч. Ремейк Bloodborne от Bluepoint Games едва не стал реальностью — Sony проект одобрила, но был нюанс 8 ч. OpenAI договорилась об использовании своих ИИ-моделей Пентагоном вместо Anthropic 11 ч. Сотни сотрудников Google и OpenAI поддержали Anthropic в противостоянии с Пентагоном 12 ч. Новая статья: 30 лет Resident Evil: юбилейное путешествие по играм серии. Часть 1 19 ч. Аудитория ChatGPT разрослась до 900 млн пользователей в неделю 20 ч. Asus и Dell готовят доступные компьютеры с подпиской на облачную Windows 365 21 мин. В Германии построят термоядерный реактор, а потом и первую в Европе термоядерную электростанцию 27 мин. Lenovo опровергла сообщения о прекращении поддержки приставки Legion Go — она продлится до 2029 года 36 мин. Представлены глобальные версии Xiaomi 17, Xiaomi 17 Ultra и Leica Leitzphone за €2000 — все с урезанными батареями 2 ч. Представлены смарт-часы Xiaomi Watch 5 и беспроводные наушники Redmi Buds 8 Pro 2 ч. Xiaomi представила тонкий магнитный пауэрбанк UltraThin Magnetic Power Bank 5000 15W и трекер Xiaomi Tag 2 ч. Nvidia вступит в битву за инференс: готовится чип на технологиях Groq для OpenAI и ИИ-агентов 3 ч. Oppo и Honor подготовили к выпуску складные смартфоны с дисплеями без складок — на этот раз, похоже, по-настоящему 4 ч. TrendForce: капзатраты восьми гиперскейлеров в 2026 году превысят ВВП Ирландии 7 ч. NASA радикально поменяла Artemis, чтобы не проиграть Китаю лунную гонку: высадку перенесли, а SLS урезали 7 ч. Во время посещения сайта вы соглашаетесь с использованием нами файлов cookie, метрических программ, Пользовательским соглашением и даёте согласие на обработку и трансграничную передачу персональных данных. Понятно