Новости Новости NVIDIA

Иван

VIP

Иван

Активный пользователь
VIP
Регистрация
17 Фев 2023
Темы
9
Сообщения
952
Реакции
4.643
Баллы
93
(Ант)спут
0.90
Тюнер
openbox s3 micro hd , uClan Ustym 4K PRO
ПМЖ
Казахстан
NVIDIA предсказала катастрофические последствия от новых антикитайских санкций для себя и всей индустрии
Было очевидно, что широкое распространение ускорителей NVIDIA в сегменте систем искусственного интеллекта сделает компанию главной жертвой готовящихся властями США экспортных ограничений в этой сфере. При этом руководство NVIDIA на этой неделе дало понять, что считает краткосрочное влияние возможных санкций против Китая незначительным для своего бизнеса, но в долгосрочной перспективе потерь не избежать не только ей, но и другим американским компаниям. Финансовый директор NVIDIA Колетт Кресс (Colette Kress) смогла сделать соответствующие заявления на одном из отраслевых мероприятий. Во-первых, она подтвердила, что ознакомлена со слухами о готовящихся ограничениях, которые не позволят компании отгружать ускорители A800 и H800 в Китай. «Однако, учитывая высокий спрос на наши продукты по всему миру, мы не ожидаем, что подобные дополнительные ограничения в случае их принятия могли бы оказать существенное влияние на наши финансовые результаты в моменте», — пояснила представительница руководства NVIDIA.



nvidia_01.jpg



При этом она добавила куда более мрачные прогнозы на более далёкое будущее: «В долгосрочной перспективе ограничения на продажу в Китае приведут к утрате возможностей для всей американской промышленности конкурировать и лидировать на одном из крупнейших рынков мира, и это окажет своё влияние на наш будущий бизнес и финансовые результаты». Фактически, NVIDIA предвещает катастрофу на китайском рынке для американских компаний. По её словам, до 20 или 25 % выручки NVIDIA в серверном сегменте формируются китайскими клиентами, но сюда входят и компоненты для телекоммуникационного оборудования, а не только ускорители вычислений. В первом фискальном квартале компании удалось во всём мире выручить около $4,28 млрд от реализации серверных компонентов.



dca61d15554cb2df64dacc7d944cfa16.jpg



Напомним, что осенью прошлого года первый этап экспортных ограничений США уже вынудил NVIDIA выпустить для китайского рынка усечённые по производительности ускорители A800 и H800, и тогда потенциальные потери от введения ограничений NVIDIA оценивала в $400 млн. Новые ограничения, которые вступят в силу с июля, могут лишить NVIDIA возможности поставок в Китай даже адаптированных ускорителей A800 и H800. Теоретически, компания способна сохранить такую возможность благодаря выдаваемым властями США экспортным лицензиям, но успех их получения никто гарантировать не может. По итогам вчерашней торговой сессии снижение курса акций NVIDIA не превысило двух процентов.
 
Nvidia получила рекордную выручку в 18 миллиардов долларов

В третьем квартале 2023 года американская технологическая компания Nvidia заработала 18,12 миллиарда долларов. Это в три раза больше, чем годом ранее. Прибыль за год выросла более чем в 13 раз, в том числе за счет роста популярности чипов для искусственного интеллекта (ИИ).

По сравнению со вторым кварталом 2023 года, Nvidia в третьем квартале получила выручку на 34 % больше. Годом ранее финансовые результаты были меньше текущих в три раза. Вендор прогнозирует, что в четвертом квартале заработает примерно 20 млрд долларов.

Прибыль Nvidia в третьем квартале составила 9,24 млрд долларов или 3,71 доллара за акцию. Еще год назад прибыль была равна 680 миллионам долларов или 27 центам на акцию. В целом чистая прибыль компании увеличилась по меньшей мере в 13 % за год.

Основной причиной такого роста доходов стали разработки в области ИИ. Например, специализированное подразделение компании заработало 14,51 млрд долларов, что на 41 % больше, чем за предыдущий квартал, и на 279 % больше, чем годом ранее, пишет Forbes.
 

Nvidia запустила Quantum Cloud — облачный симулятор квантового компьютера для исследований

Квантовые вычисления обещают экспоненциально ускорить расчёты, но как и с помощью каких алгоритмов — это человечество пока представляет очень слабо. Очевидно, что чем больше светлых умов будет вовлечено в поиск практического применения квантовых платформ, тем скорее наступит прорыв. При этом важно использовать всё то богатство возможностей, которое предоставляют классические компьютеры. Nvidia Quantum Cloud — это шаг в нужном направлении.
Компания объявила, что 18 марта запустила облачный сервис, «который позволяет исследователям и разработчикам расширять границы исследований квантовых вычислений в ключевых научных областях, включая химию, биологию и материаловедение». Платформа доступна по подписке через крупных облачных провайдеров

В основе сервиса Quantum Cloud лежит платформа квантовых вычислений CUDA-Q с открытым исходным кодом. По словам Nvidia, до 75 % компаний, так или иначе развёртывающих физические квантовые платформы, используют CUDA-Q. Иными словами, это востребованный и удобный для решения своих задач продукт. По крайней мере, альтернатив немного. Тем самым Quantum Cloud как услуга «впервые позволяет пользователям создавать и тестировать в облаке новые квантовые алгоритмы и приложения, включая мощные симуляторы и инструменты для гибридного квантово-классического программирования».

«Квантовые вычисления представляют собой следующий революционный рубеж вычислительной техники, и потребуются самые блестящие умы в мире, чтобы приблизить это будущее ещё на шаг,
— сказал Тим Коста (Tim Costa), директор по высокопроизводительным вычислениям и квантовым вычислениям в Nvidia. — Nvidia Quantum Cloud устраняет барьеры для изучения этой преобразующей технологии и позволяет каждому учёному в мире использовать возможности квантовых вычислений и приближать свои идеи к реальности»

Важной особенностью Quantum Cloud стала возможность интеграции программного обеспечения сторонних производителей для ускорения научных исследований. На данном этапе в составе платформы можно будет воспользоваться разработанным в сотрудничестве с Университетом Торонто пакетом Generative Quantum Eigensolver, который использует большие языковые модели (LLM), позволяющие квантовым алгоритмам быстрее находить энергию основного состояния молекулы; пакет израильского стартапа Classiq, облегчающий создание больших и сложных квантовых программ, включая глубокий анализ квантовых схем; и пакет QC Ware Promethium, помогающий решать сложные задачи квантовой химии, например, связанные с молекулярным моделированием.
 

NVIDIA представила облачную платформу для исследований в сфере 6G


Компания NVIDIA анонсировала облачную исследовательскую платформу 6G Research Cloud, которая призвана помочь в разработке технологий связи следующего поколения. В число первых пользователей и партнёров по экосистеме вошли Ansys, Швейцарская высшая техническая школа Цюриха (ETH Zurich), Fujitsu, Keysight, Nokia, Северо-Восточный университет (Northeastern University), Rohde & Schwarz, Samsung, SoftBank и Viavi.

Утверждается, что 6G Research Cloud предоставляет комплексный набор инструментов для внедрения ИИ в области сетей радиодоступа (RAN). NVIDIA отмечает, что платформа позволяет организациям ускорить развитие сервисов 6G, которые соединят «триллионы устройств» с облачными инфраструктурами, заложив основу для гиперинтеллектуального мира.

NVIDIA 6G Research Cloud состоит из трёх ключевых компонентов. Это, в частности, подсистема NVIDIA Aerial Omniverse Digital Twin for 6G: специализированный «цифровой двойник», позволяющий физически точно моделировать системы 6G — от одной башни до масштабов целого города. Двойник включает в себя программно-определяемые симуляторы RAN и пользовательского оборудования, а также набор реалистичных свойств местности и объектов. Используя систему, исследователи смогут моделировать и создавать алгоритмы работы базовой станции на основе данных, специфичных для конкретной площадки, а также обучать модели в режиме реального времени для повышения эффективности передачи информации.
Ещё один компонент называется NVIDIA Aerial CUDA-Accelerated RAN: это программно-определяемый стек RAN, который предназначен для настройки, программирования и тестирования сетей 6G в режиме реального времени. Третьим элементом является фреймворк NVIDIA Sionna Neural Radio Framework, обеспечивающий бесшовную интеграцию с популярными платформами, такими как PyTorch и TensorFlow. При этом задействованы ускорители NVIDIA на базе GPU для генерации и сбора данных, а также обучения моделей ИИ.

Исследователи могут применять NVIDIA 6G Research Cloud для реализации различных проектов в сфере 6G. Это могут быть сервисы для автономного транспорта, интеллектуальных пространств, расширенной реальности, иммерсивного обучения, коллективной работы и пр.
 

Nvidia скоро начнёт использовать память HBM от Samsung

До сих пор перспективы сотрудничества Nvidia и Samsung в сфере использования памяти типа HBM3 или HBM3E в основном обсуждались на уровне слухов, но основатель первой из них, Дженсен Хуанг (Jensen Huang), на недавней пресс-конференции подчеркнул, что Nvidia готова сотрудничать как с SK hynix, так и с Samsung, и сейчас проводит сертификацию памяти последней.
По данным Nikkei Asian Review, Дженсен Хуанг пояснил, что HBM является очень сложным в производстве видом памяти, но её ценность высока. По его словам, Nvidia тратит много денег на закупку HBM. «Samsung является очень, очень хорошей компанией», — высказался основатель Nvidia. Микросхемы класса HBM этой марки, по его словам, Nvidia уже подвергает сертификации, и в будущем начнёт их использовать. До этого SK hynix была основным поставщиком современных типов памяти HBM для нужд Nvidia, как уже не раз отмечалось.

Назвав микросхемы HBM «технологическим чудом», глава Nvidia пояснил, что они позволяют улучшить энергоэффективность центров обработки данных, потребляя меньше электроэнергии в удельном выражении по сравнению с классической DRAM. Представители SK hynix подтвердили, что микросхемы HBM3E этой марки будут использоваться при оснащении ускорителей вычислений Nvidia семейства Blackwell. Производство HBM3E компания SK hynix уже освоила, и к поставкам профильных изделий поступит в ближайшее время.

«Есть невероятный потенциал модернизации для Samsung и SK hynix», — заявил глава Nvidia. Обе компании будут расти синхронно с бизнесом самой Nvidia, по его словам. Сотрудничеством с Samsung и SK hynix Дженсен Хуанг очень дорожит, как он признался на пресс-конференции.
 

Nvidia исправила две опасные уязвимости в ChatRTX


Nvidia выпустила основанное на алгоритмах искусственного интеллекта приложение ChatRTX полтора месяца назад, но уже за такой непродолжительный срок была вынуждена исправить в нём две уязвимости — они предусматривали различные векторы атак, включая повышение привилегий и удалённое выполнение кода.
Программа ChatRTX, ранее носившая название Chat with RTX, дебютировала в феврале — она позволяет владельцам видеокарт Nvidia локально запускать чат-бот с ИИ. Для этого требуется видеокарта серий GeForce RTX 30 или 40 и не менее 8 Гбайт видеопамяти. Это, конечно, более скромное решение, чем чат-боты из облака, но возможность локального запуска компенсирует этот изъян.

В ранних версиях Nvidia ChatRTX до 0.2 присутствовали две уязвимости за номерами CVE-2024-0082 и CVE-2024-0083 с рейтингами соответственно 8,2 и 6,5 из 10. Первая позволяет осуществлять кражу и подмену данных и повышать привилегии пользователя; вторая — выполнять атаки типа «отказ в обслуживании» (DoS), похищать данные и производить удалённое выполнение кода.

В Nvidia уточнили, что реализовать подобные атаки возможно посредством запросов на открытие файлов и методом межсайтового скриптинга (XSS). Сведения о фактической компрометации каких-либо систем из-за этих уязвимостей отсутствуют. Чтобы избавиться от них, разработчик рекомендует обновить ChatRTX до версии 0.2, но несколько сбивает с толку его формулировка, что «последняя затронутая [уязвимостями] и обновлённая версия — 0.2». Возможно, лучше не просто обновить, но и переустановить приложение.
 

Nvidia вырвалась на второе место среди поставщиков чипов — Samsung скатилась на третье


Долгое время компании Intel и Samsung Electronics соперничали друг с другом за право считаться крупнейшим поставщиком полупроводниковой продукции с точки зрения выручки, но резкий взлёт доходов Nvidia на фоне прошлогоднего бума систем искусственного интеллекта вывел её на второе место. Intel вышла на первое, а Samsung с первого скатилась на третье, если сравнивать с 2022 годом.
Соответствующую статистику опубликовало издание Business Korea со ссылкой на данные аналитической компании Omdia от 28 марта текущего года. Непосредственно Intel хоть и поднялась со второго места на первое, свою выручку по итогам прошлого года сократила на 15,8 % до $51,2 млрд. Компания Nvidia увеличила выручку на 133,6 % до $49,2 млрд, что позволило ей подняться сразу с восьмого места на второе по итогам 2023 года. Наконец, Samsung пришлось сократить выручку в полупроводниковом бизнесе на 33,8 % до $44,4 млрд из-за неблагоприятной обстановки на рынке памяти в прошлом году. Это во многом и способствовало откату корейской компании с первого места на третье по величине выручки среди поставщиков полупроводниковой продукции.
С третьего места на четвёртое просела американская Qualcomm, которая в прошлом году сократила выручку на 15,8 % до $30,9 млрд. Компания Broadcom хоть и увеличила выручку на 5,5 % до $28,4 млрд, осталась на пятом месте, как и по итогам 2022 года. Конкурирующая с Samsung компания SK hynix в 2023 году ещё не могла в полной мере реализовать положительный эффект спроса на дорогую память HBM, поскольку все прочие категории продукции продолжали дешеветь, в итоге её выручка сократилась на 30,6 % до $23,7 млрд, вынудив SK hynix разменять четвёртое место на шестое.

Потеряв в выручке всего 5,8 % по итогам прошлого года, седьмое место сохранила за собой AMD. Компания Apple нарастила выручку на 7,8 % до $18,6 млрд, если учитывать только поставки полупроводниковой продукции (тех же процессоров серии A и M, надо понимать), это позволило ей подняться с 11-го на 8-е место. Infineon Technologies смогла увеличить выручку на 12,2 % до $17,3 млрд и занять 9-е место против 13-го годом ранее. Европейский производитель чипов STMicroelectronics нарастил выручку на 7,2 % до $17,2 млрд и поднялся на две позиции до десятого места. По всей видимости, этому во многом способствовал высокий спрос на электромобили и автомобильную электронику в целом.

Texas Instruments сократила выручку на 13,9 % до $16,6 млрд и спустилась с 9-го места на 11-е, а вот для Micron Technology прошлогодней ситуация на рынке памяти оказалась удручающей: выручка компании сократилась на 40,6 % до $16 млрд, а шестую позицию в рейтинге Omdia ей пришлось разменять на двенадцатую. Тайваньская компания MediaTek, которая сильно зависит от рынка не дорогих смартфонов, свою выручку в прошлом году сократила на четверть до $13,9 млрд, а потому вместо десятого места довольствуется тринадцатым. Контрактные производители типа TSMC в этот рейтинг не попали, поскольку не поставляют продукцию под собственной маркой. Впрочем, Intel и Samsung под этот критерий попадают, но они как раз и находятся в первой тройке участников рынка.
 

В России продажи видеокарт увеличились на 23 %


Продажи видеокарт в России в первом квартале 2024 года увеличились на 23 % по сравнению с предыдущим годом, что стало рекордом.

В первом квартале 2024 года самыми популярными видеокартами среди покупателей стали Nvidia GeForce RTX 4060 и 3060.

Число заказов на видеокарты увеличилось на 29 %, причем бренды Palit, Gigabyte и MSI стали лидерами по объему продаж.

Объем продаж видеокарт в денежном выражении с января по март увеличился до 53 % по сравнению с первым кварталом 2023 года.
 

NVIDIA и Google Cloud вместе помогут стартапам в области генеративного ИИ


NVIDIA и Google Cloud объявили о расширении сотрудничества, чтобы помочь стартапам в создании приложений и сервисов на базе генеративного ИИ. В рамках сотрудничества компании объединили программы NVIDIA Inception и Google for Startups Cloud Program, чтобы расширить доступ стартапам к облачным кредитам, предоставить им техническую экспертизу и помочь с выходом на рынок.

Прошедшие отбор участники NVIDIA Inception, глобальной программы, уже поддерживающей более 18 тыс. стартапов, получат возможность использования инфраструктуры Google Cloud и облачные кредиты в размере до $350 тыс. А участники Google for Startups Cloud Program смогут присоединиться к NVIDIA Inception и получить доступ к знаниям, курсам NVIDIA Deep Learning Institute, «железу» и ПО NVIDIA и многому другому.
Более того, отобранные участники Google for Startups Cloud Program смогут присоединиться к платформе NVIDIA Inception Capital Connect, связывающей стартапы с венчурными капиталистами. Также разработчики ПО, участвующие в этих программах, смогут получить ускоренную адаптацию к Google Cloud Marketplace, поддержку совместного маркетинга и разработки продуктов.
 

Nvidia представила профессиональные видеокарты RTX A1000 и RTX A400 с трассировкой лучей

Компания Nvidia представила профессиональные видеокарты начального уровня RTX A1000 и RTX A400. Обе новинки основаны на чипах с архитектурой Ampere, выполненных по 8-нм техпроцессу Samsung. Новинки пришли на замену моделям T1000 и T400, выпущенным 2021 году. Примечательной особенностью новых карт является поддержка ими технологии трассировки лучей, которая отсутствовала у предшественников.
 Источник изображения: Nvidia
В модели RTX A1000 используется урезанный графический процессор GA107 с 2304 ядрами CUDA и 72 тензорными ядрами, работающий на частоте 1460 МГц. Карта получила 8 Гбайт памяти GDDR6 со скоростью 12 Гбит/с на контакт и поддержкой 128-битной шины, для которой заявляется пропускная способность на уровне 192 Гбайт/с. Показатель энергопотребления новинки составляет 50 Вт, что соответствует предшественнику.
 Источник изображения: AnandTech
В свою очередь, RTX A400 получила графический процессор с 768 ядрами CUDA и 24 тензорными ядрами, работающий на частоте 1755 МГц. Ускоритель получил 4 Гбайт памяти GDDR6 со скоростью 12 Гбит/с на контакт поддержкой 64-битной шины, для которой заявляется пропускная способность на уровне 96 Гбайт/с или вдвое меньше, чем у RTX A1000. Любопытно, что при этом показатель энергопотребления у младшей модели составляет всё те же 50 Вт, когда предшественник использовал лишь 30 Вт.

Обе карты оснащены активными системами охлаждения с одним вентилятором. Толщина новинок составляет один слот расширения. Обе карты получили по четыре разъёма mini-DisplayPort 1.4a. Помимо разницы в производительности RTX A1000 и RTX A400 отличаются в видеовозможностях. Старшая модель получила два блока декодирования NVDEC, у RTX A400 — имеется только один такой блок.

По словам Nvidia, RTX A1000 появится в ассортименте её партнёров начиная с сегодняшнего дня. В свою очередь, RTX A400 появится у дистрибьюторов в мае. Ожидается, что OEM-производители ПК и рабочих станций начнут предлагать установку этих видеокарт летом.
 
NVIDIA приобрела за $700 млн платформу оркестрации ИИ-нагрузок Run:ai

Компания NVIDIA объявила о приобретении стартапа Run:ai из Тель-Авива (Израиль), занимающегося разработкой ПО для управления рабочими нагрузками и оркестрации на базе Kubernetes, которое позволяет более эффективно использовать вычислительные ресурсы при работе с ИИ-приложениями.

Стоимость сделки не раскрывается. По данным TechCrunch, покупка обошлась NVIDIA в $700 млн. Это одно из крупнейших приобретений Nvidia с момента покупки Mellanox за $6,9 млрд в марте 2019 года. Два года назад NVIDIA купила Bright Computing, разработчика решений для управления НРС-кластерами.

NVIDIA отметила, что развёртывание ИИ-приложениЙ становится всё более сложным. Оркестрация генеративного ИИ, рекомендательных и поисковых систем, а также других рабочих нагрузок требует сложного планирования для оптимизации производительности. ПО Run:ai позволяет управлять и оптимизировать вычислительную инфраструктуру как локально, так и в облаке или в гибридных средах.
Созданная стартапом открытая платформа поддерживает все популярные варианты Kubernetes и интегрируется со сторонними инструментами и платформами ИИ. Компании из различных отраслей используют платформу Run:ai для управления кластерами ускорителей в масштабе ЦОД.

Как сообщается, на относительно раннем этапе деятельности Run:ai удалось создать большую клиентскую базу из компаний из списка Fortune 500, что позволило привлечь венчурные инвестиции. Перед сделкой Run:ai привлекла капитал в размере $118 млн от ряда инвесторов, включая Insight Partners, Tiger Global, S Capital и TLV Partners.

NVIDIA заявила, что в ближайшем будущем продолжит предлагать продукты Run:ai в рамках той же бизнес-модели, а также продолжит инвестировать в развитие Run:ai в рамках платформы NVIDIA DGX Cloud, предоставляющей корпоративным клиентам доступ к вычислительной инфраструктуре и ПО для обучения моделей генеративного и других форм ИИ.

Решения Run:ai уже интегрированы с NVIDIA DGX, NVIDIA DGX SuperPOD, NVIDIA Base Command, контейнерами NGC, ПО NVIDIA AI Enterprise и другими продуктами. По словам NVIDIA, пользователи серверов и рабочих станций NVIDIA DGX, а также DGX Cloud также получат доступ к возможностям Run:ai, что особенно полезно при развёртывании генеративного ИИ в нескольких ЦОД.
 
Для просмотра этого контента нам потребуется ваше согласие на установку файлов cookie третьих лиц.
Более подробную информацию можно найти на нашей странице cookie.
 

Nvidia обновила RTX Remix, добавив реконструкцию лучей из пакета DLSS 3.5

Компания Nvidia сообщила о выпуске новой бета-версии платформы RTX Remix 0.5, которая позволяет добавлять при помощи ИИ-технологий в старые и классические игры текстуры в высоком разрешении, технологию масштабирования изображения DLSS, Reflex и трассировку лучей. Новая версия RTX Remix предлагает поддержку технологии Ray Reconstruction (реконструкции лучей), являющейся частью пакета DLSS 3.5.
Следует отметить, что Ray Reconstruction работает только на видеокартах GeForce RTX. Однако в отличие от той же технологии Frame Generation (генерация кадров), которая поддерживается только видеокартами GeForce RTX 40-й серии, Ray Reconstruction может работать в том числе и на видеокартах GeForce RTX 20-й серии.
С добавлением в состав RTX Remix поддержки технологии Ray Reconstruction создатели модификаций могут улучшать качество игровых моделей с трассировкой лучей всего за несколько кликов мышкой. Эта технология на базе ИИ значительно превосходит по качеству и удобству другие методы, требующие ручного процесса трассировки, отмечает Nvidia. Создатели модов теперь имеют удобный инструмент, который не требует ручных настроек и выполняет всю работу автоматически. Кроме того, обновление RTX Remix охватывает функции освещения, запекания текстур на поверхности и маркировки текстур.

RTX Remix является открытой платформой, поэтому Nvidia продолжает привлекать энтузиастов в создании модификаций для улучшения инструмента и внедрения в него новых функций. Ну а тем, кто созданием модификаций сам не занимается, но хотел бы снова поиграть в старые игры с новыми технологиями, можно обратиться в раздел сайта ModDB, где собрана постоянно расширяющаяся база модов для различных старых игр, созданных с помощью RTX Remix.
 

Nvidia стала крупнейшим разработчиком чипов в мире по объёму выручки

foundry_02.png

Известно, что Nvidia не производит самостоятельно разрабатываемые ею компоненты, а доверяет их выпуск контрактным производителям, главным из которых остаётся TSMC. Тем не менее, основная добавленная стоимость оседает именно на счетах Nvidia, что и позволило ей на фоне бума искусственного интеллекта более чем удвоить выручку до $55,3 млрд и занять первое место. В целом, десять крупнейших разработчиков чипов увеличили выручку на 12 % по итогам 2023 года.
Подобную статистику приводит компания TrendForce. По данным источника, за весь прошлый год десять крупнейших разработчиков интегральных микросхем увеличили совокупную выручку на 12 % до $167,6 млрд. Составители рейтинга подчёркивают, что именно впечатляющий рост выручки Nvidia на 105 % до $55,3 млрд обеспечил основную положительную динамику в десятке лидеров рынка, потому что многие из её членов фактически сокращали выручку, а прочие типа MPS, Will Semiconductor и Broadcom увеличили её на несколько процентов.

Qualcomm сползла на второе место из-за снижения выручки на 16 % до 30,9 млрд. Кстати, занявшая первое место Nvidia по итогам прошлого года увеличила свою долю рынка в денежном выражении среди крупнейших разработчиков чипов с 18 до 33 %, поэтому её удельный вес в общей динамике выручки предсказуем. Mediatek хоть и сохранила за собой пятую позицию, сократила выручку на 25 % до $13,9 млрд и уступила конкурентам четыре процентных пункта рыночных позиций, довольствуясь 8 % рынка. Realtek за счёт потери 19 % выручки по сравнению с 2022 годом сползла с 7-го на 8-е место, но в денежном выражении её доля рынка осталась равна 2 %.
Дальнейший рост популярности систем искусственного интеллекта, как считают аналитики TrendForce, должен стимулировать рост выручки не только в серверном сегменте, но и на рынке клиентских устройств и смартфонов, поскольку соответствующие функции будут проникать и в процессоры для этого типа устройств. Сейчас Nvidia контролирует более 80 % рынка чипов для систем искусственного интеллекта. Выручка Broadcom в прошлом году выросла на 7 % до $28,5 млрд, поскольку до 15 % чипов в структуре её поставок имели отношение к теме искусственного интеллекта. В этом году, правда, компания ожидает снижения выручки на двузначное количество процентов за счёт сегмента сетевых систем хранения данных и решений для широкополосного доступа.

Выручка AMD в прошлом году упала на 4 % до $22,7 млрд из-за сохранения большого объёма товарных запасов на складах и ограниченного спроса на ПК после пандемии. Лишь в сегменте серверных компонентов и встраиваемых решений выручка AMD выросла на 17 %. В текущем году основным локомотивом выручки компании будут ускорители Instinct MI300, которые вышли на рынок в четвёртом квартале прошлого года.

Снижение выручки Qualcomm на 16 % в прошлом году было вызвано слабостью спроса на смартфоны, но сейчас компания делает ставку на автомобильный сегмент, который к 2030 году должен удвоить профильную выручку. MediaTek в прошлом году сократила выручку на 25 % до $13,9 млрд, но в этом году компания намеревается наращивать её за счёт сегмента дорогих смартфонов, в котором находят применения процессоры семейства Dimensity 9300.
 

Nvidia втрое ускорила работу ИИ на видеокартах GeForce RTX


Nvidia сообщила, что дополнительно увеличила ИИ-производительность своих видеокарт GeForce RTX и платформ RTX AI PC с выпуском последнего драйвера версии GeForce Game Ready 555.85 WHQL. В ходе конференции Microsoft Build компания Nvidia анонсировала ряд новых оптимизаций производительности для алгоритмов искусственного интеллекта, которые теперь доступны в рамках экосистемы RTX, включая графические процессоры GeForce RTX, рабочие станции и ПК.
Nvidia отмечает, что последние оптимизации нацелены на ускорение работы ряда больших языковых моделей (LLM) использующихся генеративным ИИ. Новый драйвер Nvidia версии 555 обеспечивает видеокартам GeForce RTX и платформам RTX AI PC трёхкратный прирост ИИ-производительности при работе с фреймворками ONNX Runtime (ORT) и DirectML. Оба инструмента используются для запуска ИИ-моделей в среде операционной системы Windows.

Кроме того, новый драйвер увеличил производительность программного интерфейса WebNN для DirectML, который используется веб-разработчиками для размещения новых ИИ-моделей. Nvidia сообщает, что сотрудничает с Microsoft над дальнейшим повышением производительности графических процессоров RTX и добавлением поддержки DirectML в PyTorch. Ниже приведен полный список возможностей, которые предлагаются свежим драйвером Nvidia R555 для графических процессоров GeForce RTX и ПК с RTX:
  • поддержка метакоманды DQ-GEMM для обработки квантования INT4 только по весу для LLM;
  • новые методы нормализации RMSNorm для моделей Llama 2, Llama 3, Mistral и Phi-3;
  • механизмы группового и многозапросного внимания, а также внимания скользящего окна для поддержки Mistral;
  • обновления KV для улучшения внимания;
  • поддержка GEMM-тензоров, не кратных 8, для улучшения производительности контекстной фазы.
В тестах производительности ORT, генеративного расширения искусственного интеллекта, выпущенного Microsoft, новый драйвер Nvidia приводит к приросту производительности по всем направлениям, как для типов данных INT4, так и для FP16. Благодаря методам оптимизации, добавленным в это обновление, производительность больших языковых моделей Phi-3, Llama 3, Gemma и Mistral увеличивается до трёх раз.

Nvidia также напоминает, что преимущество экосистемы RTX заключается в использовании возможностей воспроизводительных тензорных ядер. На их основе работают DLSS Super Resolution, Nvidia Ace, RTX Remix, Omniverse, Broadcast, RTX Video и другие технологии. Кроме того, для использования тензорных ядер в ускорении работы ИИ компания предлагает комплекты разработчиков TensorRT, Maxine и RTX Video.
 

В следующем месяце Nvidia осуществит дробление акций по схеме «10 к 1»

Пусть пока акции Nvidia и преодолели рубеж в $1000 за штуку только по итогам дополнительной торговой сессии накануне, выручка компании и прогноз на текущий квартал сформировали благоприятные для дальнейшего роста условия. Кроме того, компания объявила о предстоящем дроблении акций по схеме «10 к 1», которое состоится 10 июня текущего года.
Если быть точнее, 7 июня будет последним днём торгов акциями Nvidia в их нынешнем количестве. После этого каждый зарегистрированный по состоянию на 6 июня текущего года владелец акций компании получит ещё по девять дополнительных акций на одну бумагу, а с 10 июня они будут участвовать в торгах по уменьшенному в десять раз номиналу. Другими словами, если к 7 июня курс акций закрепится на отметке $1000 за штуку, то с 10 июня он автоматически будет снижен до $100 за штуку, но количество находящихся в обороте акций вырастет в десять раз. Подобные меры регулярно предпринимаются эмитентами для повышения доступности своих акций розничным инвесторам, поскольку частным лицам проще выделить $100 на покупку одной акции, чем $1000.

Впрочем, в последние годы актуальность таких шагов несколько снизилась, поскольку на фондовом рынке появились механизмы, позволяющие инвесторам приобретать дробные доли акций. Тем не менее, по традиции дробление акций компании привлекает к ним новых инвесторов с более скромными бюджетами. В прошлый раз Nvidia прибегала к дроблению акций в мае 2021 года, с тех пор курс её акций вырос более чем в шесть раз. Всего же за пять предыдущих лет акции Nvidia подорожали в 25 раз, расщепление напрашивалось само собой.

Подготовилась Nvidia к дроблению акций и с точки зрения величины дивидендов. Она выросла с $0,04 до $0,1. Получается, что после дробления держатели акций будут получать по $0,01 дивидендов на каждую ценную бумагу Nvidia. Выплата дивидендов запланирована на 28 июня текущего года, они полагаются всем держателям акций компании, зарегистрированным по состоянию на 11 июня 2024 года.
 

Капитализация Nvidia выросла до $2,59 трлн, превзойдя ВВП России, Канады и Бразилии

Акции американской компании Nvidia, производителя графических процессоров и чипов для искусственного интеллекта, на днях резко выросли на 9 % на фоне публикации сильных финансовых результатов за первый квартал.
В результате рыночная стоимость Nvidia достигла астрономической отметки в $2,59 триллиона. Это ставит компанию на третье место среди публичных акционерных компаний после Microsoft и Apple.
Более того, капитализация Nvidia уже превзошла совокупную стоимость всех компаний, торгующихся на Франкфуртской фондовой бирже в Германии. А $2,59 триллиона — это больше, чем весь валовый внутренний продукт таких крупных стран, как Канада, Бразилия и Россия.

Как отмечает «Коммерсант», резкому росту акций предшествовала публикация накануне, в понедельник, впечатляющих финансовых показателей. Квартальная выручка взлетела на 262 % по сравнению с аналогичным периодом прошлого года и составила $26 млрд, а чистая прибыль выросла еще более внушительно на 628 %, достигнув $14,9 млрд.

Аналитики объясняют стремительный взлет прибыли и капитализации Nvidia высочайшим спросом на оборудование для искусственного интеллекта и машинного обучения.

На сегодня компания контролирует львиную долю мирового рынка графических процессоров, оптимизированных для работы нейросетей и других приложений искусственного интеллекта. В частности, флагманским продуктом компании являются ИИ-ускорители серии H100, предназначенные для вычислений в системах компьютерного зрения, обработки естественного языка, робототехники и других областях, где активно применяются алгоритмы машинного обучения.
 

Nvidia представила амбициозный план выпуска новых GPU и CPU: суперчип Vera Rubin с HBM4 выйдет в 2026 году

Глава Nvidia во время презентации на Computex 2024 представил план по выпуску новых продуктов на следующие три года. Он включает новейшие графические и центральные процессоры, а также другие чипы и интерфейсы для ИИ и машинного обучения. Согласно плану, компания намерена ежегодно выпускать флагманские решения, работающие на пределе доступных производственных техпроцессов.
На конференции Computex 2024 глава Nvidia Дженсен Хуанг (Jensen Huang) раскрыл подробности о планах компании компании для продуктов, предназначенных для центров обработки данных, на следующие три года. Планы впечатляют — Nvidia намерена выпускать новые флагманские решения для дата-центров каждый год, постоянно наращивая их производительность и функциональность.
Уже в следующем, 2025 году ожидается выход графического процессора Blackwell Ultra, который является преемником нынешнего флагмана Blackwell. Новинка будет оснащена памятью HBM3e с 12 кристаллами в стеке, что позволит увеличить объем на 50 % по сравнению с Blackwell, у которого память с 8 кристаллами.
В 2026 году Nvidia планирует сделать сразу несколько крупных анонсов. Во-первых, будет представлен новый графический чип Rubin с памятью HBM4. Во-вторых, появится центральный процессор Vera, который придёт на смену нынешнему Grace. Таким образом, флагманское решение 2026 года получит название Vera Rubin — это будет суперчип, связка GPU+CPU, аналогично актуальному Grace Hopper. Кроме того, пропускная способность запатентованной Nvidia технологии интерконнекта NVLink будет удвоена до 3,6 Тбит/с (NVLink 6 против NVLink 5).

На 2027 год запланирован выход улучшенной версии Rubin Ultra с HBM4 с 12 кристаллами в стеке вместо 8. Как подчёркивает Хуанг, Nvidia намерена выжимать максимум из доступных на данный момент производственных техпроцессов, чтобы каждый год выводить на рынок новые флагманские решения, работающие на пределе возможного. По словам Дженсена Хуанга, именно такая стратегия непрерывного совершенствования позволит компании сохранять лидерство в сфере решений для дата-центров.
 

Nvidia в прошлом году захватила 98 % рынка графических процессоров для ЦОД — поставки достигли 3,76 млн единиц

Недавний бум искусственного интеллекта озолотил Nvidia. В 2023 году компания поставила 3,76 миллиона графических процессоров для ЦОД, что на миллион больше, чем годом ранее, показав рост продаж на 42 %. Выручка Nvidia за 2023 год достигла $60,9 млрд, на 126 % превысив аналогичный показатель 2022 года.
По результатам 2023 года Nvidia захватила 98 % рынка графических процессоров для центров обработки данных и 88 % рынка графических процессоров для настольных ПК. Такие результаты компания продемонстрировала несмотря на нехватку в 2023 году производственных мощностей TSMC, выпускающей чипы для Nvidia, и невзирая на запрет США на экспорт передовых чипов Nvidia в Китай.

Однако Nvidia не может почивать на лаврах: AMD готовит выпуск гораздо более энергоэффективных чипов, чем полупроводниковый хит сезона Nvidia H100, потребляющий до 700 Вт, а Intel продвигает процессор Gaudi 3 AI, который будет стоить $15 000 — вдвое дешевле, чем H100.

В гонку аппаратного обеспечения для ЦОД присоединяются и другие компании. Microsoft представила ускоритель искусственного интеллекта Maia 100, который она планирует использовать в своём анонсированном ЦОД стоимостью $100 млрд. Amazon производит специальные чипы для AWS, а Google планирует использовать собственные серверные процессоры для ЦОД уже в следующем году.
Однако, по утверждению Nvidia, все эти чипы пока менее производительны, чем её графические процессоры применительно к ускорению работы искусственного интеллекта. Nvidia также подчёркивает гибкость архитектуры своих графических процессоров. Таким образом, несмотря на появляющиеся альтернативы, ИИ-ускорители компании в ближайшем будущем сохранят свои лидирующие позиции.
 
Назад
Сверху Снизу