1. ИИ открывает новые возможности для автоматизации задач в архитектуре и проектировании.
2. Основная цель – сокращение ошибок и повышение эффективности проектных решений.
3. Генетические алгоритмы активно используются для генеративного дизайна в архитектуре.
4. Диффузионные модели начинают внедряться в дизайн и позволяют создавать визуальные концепты по текстовому описанию.
5. Reinforcement Learning помогает оптимизировать проектные решения в реальном времени.
6. Пример зонирования офисных помещений демонстрирует практическую пользу ИИ.
7. AI Copilot системы помогут снизить количество ошибок и оптимизировать процесс создания проектов.
8. Инновационные алгоритмы позволят архитекторам сосредоточиться на творческих аспектах, делегируя рутинные задачи ИИ.
9. Перспективы развития ИИ открывают возможность создания интеллектуальной среды для проектирования.
В докладе обсудим, какие риски информационной (и не только) безопасности может принести использование машинного обучения в бизнесе, а также какие бывают атаки на ML и как от них обезопаситься.
Кому будет особенно интересно послушать: разработчикам ML-решений, так как будут раскрыты технические особенности мер защиты и методы атак, а также топ-менеджерам, так как в выступлении подсвечу последствия, которые возникают, если пренебрегать требованиями безопасности в ML.
Искусственный интеллект становится ключевым элементом во многих отраслях, включая и обеспечение безопасности данных. Современные системы на основе больших языковых моделей (LLM) позволяют выявлять потенциальные угрозы путем анализа и категоризации данных в реальном времени. LLM непрерывно отслеживают изменения и перемещения данных, мгновенно уведомляют пользователей о возможных рисках и предлагает способы их устранения. Сегодня ИИ может обеспечить высокую точность мониторинга и защиты данных, что делает его незаменимым инструментом в арсенале любой современной компании.
Примером такого использования LLM является система мониторинга конфиденциальной информации в текстовых данных различных источников, таких как почтовые клиенты, мессенджеры и чаты, работающую в режиме реального времени.
В рамках доклада рассмотрим, как система автоматически выявляет участки текста, содержащие уязвимые данные, и какие механизмы используются для формирования вариантов изменений с сохранением исходного смысла. Это позволяет предотвратить утечку конфиденциальной информации и обеспечить её надежную защиту.
Также мы затронем вопросы выбора моделей для классификатора и задач перефразирования текста, разберем ключевые метрики оценки качества классификации и генерации текста, обсудим методы квантизации и оптимизации для повышения производительности, а также рассмотрим подходы к мониторингу и анализу работы системы в реальном времени.
- Обход централизации Big Tech: Сегодня AI-модели разрабатываются и управляются крупными корпорациями, что создает риски цензуры, зависимости и контроля. Децентрализация позволяет уйти от этих ограничений.
- Web3, блокчейн и AI: Технологии децентрализованных вычислений и хранения данных открывают новые возможности для распределенных AI-агентов, работающих без единого центра.
- Будущее AI и экономики: Децентрализованные AI-агенты могут создать новый слой цифровой экономики, где автономные системы взаимодействуют, зарабатывают и принимают решения без вмешательства человека.
В своём докладе я рассмотрю полный цикл создания AI-агента: от формулировки бизнес-задачи до его внедрения в продакшн и последующей поддержки. Мы начнем с формирования технического задания (ТЗ), подробно разберём, как правильно определять цель и критерии успеха. Особое внимание будет уделено анализу различных больших языковых моделей (LLM): сравним их с точки зрения ключевых метрик и эффективности по результатам смарт-тестов. Я расскажу об этапах разработки AI-агента, включая выбор архитектуры, обучение модели и тестирование. Также мы обсудим актуальную проблему — недостаток компетенций в проектировании микросервисной архитектуры для AI-агентов. Я предложу рекомендации по тому, из каких микросервисов должен состоять AI-агент, чтобы его можно было эффективно эксплуатировать и масштабировать. Завершим доклад вопросами продакшн-развертывания: подключением систем логирования для мониторинга работы модели и организации процесса доставки новых фичей. В результате вы получите чёткое понимание того, как построить и развивать AI-агента, способного решать конкретные бизнес-задачи.
Можно сделать крутую модель, но от нее будет мало проку, если не обеспечить ее интеграцию в реальные бизнес-процессы. В докладе расскажем, откуда и зачем в команде «Товарных рекомендаций» Wildberries текстовый энкодер, на что он способен и как мы сжимали его эмбеддинги для онлайн-доранжирование рекламных баннеров по запросам пользователей: от классических PCA, автоэнкодеров и полносвязных слоев до одного интересного подхода с очень русским названием
При построении персональных рекомендаций зачастую подразумевается, что мы должны получить для каждого пользователя свою, уникальную подборку товаров. Однако в случае, когда пользователей становится слишком много, а в инфраструктуре товары хранятся с обогащением бизнес-факторами, такая схема становится все менее масштабируема. Расскажу о том, как мы без просадки в качестве существенно сократили затраты на инфраструктуру за счет кластеризации пользователей и товаров.
Основные тезисы:
- кластеризация пользователей (эмбеддинги WildBERT), создание агрегированной выдачи для кластера;
- кластеризация товаров (e5) - выделение интересов, отображение пользователя в пространство интересов;
- сравнение схем "храним подборку для каждого пользователя" и "храним только кластера, юзера описываем как набор кластеров и интересов" в разрезе ранжирующих метрик и затрат на инфраструктуру;
- как в такой схеме не просадить качество - доранжирование по эмбедингам в онлайне в момент формирования выдачи;
- зеленый АБ-тест с тестированием описанной схемы, и оценка по экономии на инфраструктуре.