<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
  <channel>
    <title>Искусственный Интеллект on IT Experts Team</title>
    <link>https://itexperts.team/categories/%D0%B8%D1%81%D0%BA%D1%83%D1%81%D1%81%D1%82%D0%B2%D0%B5%D0%BD%D0%BD%D1%8B%D0%B9-%D0%B8%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82/</link>
    <description>Recent content in Искусственный Интеллект on IT Experts Team</description>
    <generator>Hugo</generator>
    <language>ru</language>
    <lastBuildDate>Sun, 01 Mar 2026 17:59:55 +0300</lastBuildDate>
    <atom:link href="https://itexperts.team/categories/%D0%B8%D1%81%D0%BA%D1%83%D1%81%D1%81%D1%82%D0%B2%D0%B5%D0%BD%D0%BD%D1%8B%D0%B9-%D0%B8%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>Запускаем llama.cpp на RISC-V VisionFive 2</title>
      <link>https://itexperts.team/posts/run_llama.cpp_on_risc-v/</link>
      <pubDate>Sun, 01 Mar 2026 17:59:55 +0300</pubDate>
      <guid>https://itexperts.team/posts/run_llama.cpp_on_risc-v/</guid>
      <description>&lt;p&gt;&lt;strong&gt;Пробуем запускать LLM на RISC-V&lt;/strong&gt;&lt;/p&gt;&#xA;&lt;p&gt;&lt;img src=&#34;https://itexperts.team/img/llama_riscv_ai_banner.png&#34; alt=&#34;banner&#34;&gt;&lt;/p&gt;&#xA;&lt;p&gt;Целью эксперимента было не столько проверить производительность, сколько понять применимость процессоров RISC-V в качестве управляющих в серверах для ИИ.&lt;/p&gt;&#xA;&lt;p&gt;Компания Nvidia использует ARM процессоры &lt;a href=&#34;https://www.nvidia.com/en-us/data-center/vera-cpu/&#34;&gt;Vera&lt;/a&gt; в качестве управляющих для GPU &lt;a href=&#34;https://www.nvidia.com/en-us/data-center/technologies/rubin/&#34;&gt;Rubin&lt;/a&gt;.&lt;/p&gt;&#xA;&lt;p&gt;Почему бы не попробовать использовать RISC-V?&lt;/p&gt;&#xA;&lt;p&gt;В качестве инференес-движка выбрал &lt;a href=&#34;https://github.com/ggml-org/llama.cpp&#34;&gt;LLaMA C++ - LLM inference in C/C++&lt;/a&gt;&lt;/p&gt;&#xA;&lt;p&gt;Критерием успеха для себя выбрал: &lt;strong&gt;модель LLM работает и ответила мне хотя бы одним словом&lt;/strong&gt;.&lt;/p&gt;&#xA;&lt;h2 id=&#34;на-чем-пробовал-и-как-собирал&#34;&gt;На чем пробовал и как собирал&lt;/h2&gt;&#xA;&lt;p&gt;Одноплатник StarFive VisionFive 2:&lt;/p&gt;</description>
    </item>
    <item>
      <title>Современный ЦОД для ИИ</title>
      <link>https://itexperts.team/posts/2025_dc_for_ai/</link>
      <pubDate>Sun, 08 Feb 2026 00:00:00 +0000</pubDate>
      <guid>https://itexperts.team/posts/2025_dc_for_ai/</guid>
      <description>&lt;p&gt;Вызов продиктован современными трендами развития ИИ инфраструктуры и потребностью строительства оптимизированных ЦОД.&lt;/p&gt;&#xA;&lt;p&gt;Опорные данные:&lt;/p&gt;&#xA;&lt;ol&gt;&#xA;&lt;li&gt;В качестве сервера для расчетов взят сервер Nvidia DGX B200 и серверы с жидкостным охлаждением размером 4U SXM B200&lt;/li&gt;&#xA;&lt;li&gt;Стартовое число размещаемых в ЦОД серверов: 100 штук&lt;/li&gt;&#xA;&lt;li&gt;Среднегодовой рост числа серверов: 200 штук в год&lt;/li&gt;&#xA;&lt;/ol&gt;&#xA;&lt;p&gt;Современный машинный зал для ИИ — это высокоплотная инженерная система, где критически важны энергоэффективность, максимальная плотность размещения оборудования и стратегический выбор архитектуры охлаждения. Для ЦОД ИИ со стартом на 100 серверов NVIDIA DGX B200 (10U в стойке) с ежегодным приростом 200 серверов и расчетом на 3 года, оптимальная инфраструктура требует жесткого следования ряду технических и экономических принципов. Так же рассмотрено размещение серверов с жидкостным охлаждением, более плотное размещение.&lt;/p&gt;</description>
    </item>
    <item>
      <title>Как ИИ меняет проектирование и эксплуатацию дата-центров в России. TA мнения</title>
      <link>https://itexperts.team/posts/20260126_ta_oy_ai_comments/</link>
      <pubDate>Mon, 26 Jan 2026 00:00:00 +0000</pubDate>
      <guid>https://itexperts.team/posts/20260126_ta_oy_ai_comments/</guid>
      <description>&lt;p&gt;Дал комментарий для &lt;a href=&#34;https://www.tadviser.ru&#34;&gt;TAdviser&lt;/a&gt;.&lt;/p&gt;&#xA;&lt;p&gt;Затрагивается тема влияния &lt;a href=&#34;https://www.tadviser.ru/index.php/%D0%A1%D1%82%D0%B0%D1%82%D1%8C%D1%8F:%D0%A1%D1%82%D1%80%D0%BE%D0%B8%D1%82%D0%B5%D0%BB%D1%8C%D1%81%D1%82%D0%B2%D0%BE_%D0%B4%D0%B0%D1%82%D0%B0-%D1%86%D0%B5%D0%BD%D1%82%D1%80%D0%BE%D0%B2_%D0%B2_%D0%A0%D0%BE%D1%81%D1%81%D0%B8%D0%B8#.2A_.D0.9A.D0.B0.D0.BA_.D0.98.D0.98_.D0.BC.D0.B5.D0.BD.D1.8F.D0.B5.D1.82_.D0.BF.D1.80.D0.BE.D0.B5.D0.BA.D1.82.D0.B8.D1.80.D0.BE.D0.B2.D0.B0.D0.BD.D0.B8.D0.B5_.D0.B8_.D1.8D.D0.BA.D1.81.D0.BF.D0.BB.D1.83.D0.B0.D1.82.D0.B0.D1.86.D0.B8.D1.8E_.D0.B4.D0.B0.D1.82.D0.B0-.D1.86.D0.B5.D0.BD.D1.82.D1.80.D0.BE.D0.B2_.D0.B2_.D0.A0.D0.BE.D1.81.D1.81.D0.B8.D0.B8._TA_.D0.BC.D0.BD.D0.B5.D0.BD.D0.B8.D1.8F&#34;&gt;ИИ в строительстве ЦОД&lt;/a&gt;.&lt;/p&gt;&#xA;&lt;p&gt;Искусственный интеллект давно перестал быть футуристической концепцией и стал рабочим инструментом в самых разных сферах. Но пока обыватели обсуждают креативные возможности ChatGPT и генерацию изображений, в фундаменте цифрового мира — дата-центрах — происходит своя, не менее значимая тихая революция. От оптимизации энергопотребления до предсказательного ремонта оборудования: TAdviser поговорил с экспертами и участниками рынка, чтобы выяснить, как ИИ применяется при создании и эксплуатации ЦОДов в России.&lt;/p&gt;</description>
    </item>
    <item>
      <title>GPU Server and AI Infrastructure: тренды архитектуры 2030</title>
      <link>https://itexperts.team/posts/gpu_ai_infra_trends_2030/</link>
      <pubDate>Mon, 30 Jun 2025 00:00:00 +0000</pubDate>
      <guid>https://itexperts.team/posts/gpu_ai_infra_trends_2030/</guid>
      <description>&lt;p&gt;&lt;img src=&#34;https://itexperts.team/img/GPU_AI_2030.jpeg&#34; alt=&#34;2030&#34;&gt;&lt;/p&gt;&#xA;&lt;p&gt;Мы в OpenYard внимательно следим за тем, как развивается инфраструктура для искусственного интеллекта — от железа до сетей и архитектуры дата-центров. Причём это не просто рабочая необходимость, а и то, что нам самим по-настоящему интересно. В эту статью попали материалы, которые мы собираем и анализируем в процессе исследований для наших новых продуктов. Здесь собраны ключевые тренды, которые уже начинают влиять на то, как мы будем строить свою инфраструктуру и запускать модели ИИ в ближайшие 5–7 лет.&lt;/p&gt;</description>
    </item>
    <item>
      <title>Windows Subsystem for Linux (WSL) как инструмент для прототипирования и проверки гипотез</title>
      <link>https://itexperts.team/posts/wsl_prototype/</link>
      <pubDate>Wed, 10 Jan 2024 14:07:35 +0300</pubDate>
      <guid>https://itexperts.team/posts/wsl_prototype/</guid>
      <description>&lt;p&gt;&lt;img src=&#34;https://itexperts.team/img/fb_n11.jpg&#34; alt=&#34;Prototype&#34;&gt;&lt;/p&gt;&#xA;&lt;p&gt;Выбирая пути развития программного продукта передо мной зачастую возникает задача проверить гипотезу.&lt;/p&gt;&#xA;&lt;p&gt;А гипотезу я предпочитаю проверять максимально простым и быстрым способом.&lt;/p&gt;&#xA;&lt;p&gt;Не планирую описывать команды и отдельные шаги. Опишу саму задачу и подход к решению задачи.&lt;/p&gt;&#xA;&lt;h3 id=&#34;задача&#34;&gt;Задача&lt;/h3&gt;&#xA;&lt;p&gt;&lt;strong&gt;Запустить платформу речевой аналитики&lt;/strong&gt;&lt;/p&gt;&#xA;&lt;p&gt;Речевая Аналитика в телефонии - это полнотекстовый анализ телефонных разговоров. Состоит, укрупненно, из нескольких частей:&lt;/p&gt;&#xA;&lt;ul&gt;&#xA;&lt;li&gt;Распознавание речи в текст&lt;/li&gt;&#xA;&lt;li&gt;Анализ текста (аналитика)&lt;/li&gt;&#xA;&lt;li&gt;Отчетность и принятие решения&lt;/li&gt;&#xA;&lt;/ul&gt;&#xA;&lt;h3 id=&#34;гипотеза&#34;&gt;Гипотеза&lt;/h3&gt;&#xA;&lt;p&gt;&lt;strong&gt;Оценив предложения на рынке, решил рассмотреть возможность реализовать платформу самим, внутри компании.&lt;/strong&gt;&lt;/p&gt;</description>
    </item>
    <item>
      <title>Как устроена платформа автоматизации процессов разработки MLOps Platform #CloudMTS</title>
      <link>https://itexperts.team/posts/mts_mlops/</link>
      <pubDate>Fri, 17 Dec 2021 13:12:35 +0300</pubDate>
      <guid>https://itexperts.team/posts/mts_mlops/</guid>
      <description>&lt;p&gt;В прошлой &lt;a href=&#34;https://itexperts.team/posts/mts_grom_supercloud/&#34;&gt;статье&lt;/a&gt; я рассказывал, как мы строим сервисы для разработчиков ИИ и, в частности, коснулся истории появления нашей &lt;a href=&#34;https://cloud.mts.ru/services/mlops-platform/?utm_source=habr.com&amp;amp;utm_medium=owned_media_mlops_platform&amp;amp;utm_content=article&amp;amp;utm_term=kak_ustroena_mlops_platform_cloudmts&#34;&gt;MLOps Platform&lt;/a&gt;. Сегодня мне хотелось бы показать ее изнутри — поделиться возможностями и показать инструменты под капотом.&lt;/p&gt;&#xA;&lt;p&gt;Надеюсь, получилось достаточно подробно. А для всего остального есть комментарии: не стесняйтесь задавать вопросы, я обязательно отвечу всем интересующимся. Поехали!&lt;/p&gt;&#xA;&lt;p&gt;&lt;img src=&#34;https://itexperts.team/img/mts_mlops_1.png&#34; alt=&#34;CloudMTS&#34;&gt;&lt;/p&gt;&#xA;&lt;p&gt;Итак, когда мы построили наш &lt;a href=&#34;https://cloud.mts.ru/services/gpu-supercloud/?utm_source=habr.com&amp;amp;utm_medium=owned_media_gpu_supercloud&amp;amp;utm_content=article&amp;amp;utm_term=kak_ustroena_mlops_platform_cloudmts&#34;&gt;GPU SuperCloud&lt;/a&gt;, мы поняли, что у некоторых заказчиков есть спрос на услугу «здесь и сейчас». У кого-то горят сроки реализации проекта. Другим не хватает «инженерных» рук. Поэтому мы решили сделать инструмент, который позволял бы прийти «на все готовое». И построили MLOps Platform.&lt;/p&gt;</description>
    </item>
    <item>
      <title>Строим сервисы для разработчиков ИИ: как в МТС GPU SuperCloud эволюционировал до автоматизированной MLOps Platform</title>
      <link>https://itexperts.team/posts/mts_grom_supercloud/</link>
      <pubDate>Wed, 15 Dec 2021 11:18:35 +0300</pubDate>
      <guid>https://itexperts.team/posts/mts_grom_supercloud/</guid>
      <description>&lt;p&gt;Роботы вошли в нашу жизнь. Мы пользуемся ими на повседневной основе, подчас даже не замечая этого. ИИ звонит нам и отвечает на наши звонки. Сейчас даже проезд в метро можно оплатить лицом.&lt;/p&gt;&#xA;&lt;p&gt;Динамичный рост рынка технологий искусственного интеллекта закономерно породил спрос на инфраструктуру для их разработки. Особенность построения моделей искусственного интеллекта состоит в том, что для их обучения требуются очень мощные и производительные решения. Под катом мы поговорим о том, как начался наш путь в сервисы для ИИ и к чему мы пришли сейчас. Коснемся и исторических моментов, и планов на ближайшее будущее.&lt;/p&gt;</description>
    </item>
    <item>
      <title>Голосовой ассистент – помощник или конкурент?</title>
      <link>https://itexperts.team/posts/ai_gravitel/</link>
      <pubDate>Thu, 14 Jan 2021 17:36:12 +0300</pubDate>
      <guid>https://itexperts.team/posts/ai_gravitel/</guid>
      <description>&lt;p&gt;&lt;img src=&#34;https://itexperts.team/img/ai_gravitel.png&#34; alt=&#34;Голосовой ассистент – помощник или конкурент?&#34;&gt;&lt;br&gt;&#xA;&#xA;&lt;a style=&#34;color: gray; font-size: 8px;&#34; href=&#34;https://unsplash.com/photos/white-robot-near-brown-wall-2EJCSULRwC8&#34;&gt;Photo by Alex Knight on Unsplash&lt;/a&gt;&#xA;&lt;/p&gt;&#xA;&lt;p&gt;В &lt;a href=&#34;https://www.gravitel.ru/&#34;&gt;Гравител&lt;/a&gt; силами разработчиков компании ведем работу по созданию сразу двух систем: Голосовой ассистент и Речевая аналитика. Проект Голосового ассистента, сайт проекта &lt;a href=&#34;https://aicall.ru/&#34;&gt;https://aicall.ru&lt;/a&gt;, начался весной 2020, и уже в октябре 2020 начал обслуживать первого коммерческого заказчика.&lt;br&gt;&#xA;Периодически в диалогах с заказчиками сталкиваемся с некой формой боязни роботов. Кто-то считает, что людей придется сокращать. Кто-то боится попасть под это сокращение.&lt;br&gt;&#xA;Решили порассуждать на тему конкуренции человека и робота в области телефонии. Подготовил эту статью.&lt;/p&gt;</description>
    </item>
  </channel>
</rss>
