ИТ Безопасность в цифровой медицине

00:00:00 Введение в применение нейросетей в здравоохранении • Здравоохранение лидирует по внедрению искусственного интеллекта. • Увеличение внедрения ИИ создаёт новые угрозы безопасности. • Задача — понять эти угрозы и способы их преодоления. 00:01:03 Классификация данных • Данные классифицируются на три группы: временные ряды, медицинские изображения и геномные данные. • Классификация помогает лучше понять тематику. 00:01:50 Тренды в применении ИИ • США, Россия и Китай активно применяют ИИ в здравоохранении. • Основной тренд — обработка медицинских изображений. • Возрастает количество программных реализаций для работы с временными рядами. 00:02:52 Государственные стандарты и рост числа изделий • В России существуют государственные стандарты для работы с ИИ. • На декабрь 2025 года в реестре было 56 изделий, что значительно больше, чем в 2024 году. • Тренд на применение цифровых изображений и работу с временными рядами сохраняется. 00:04:23 Источники данных для ИИ • Популярность ИИ связана с наличием данных и алгоритмов. • Доступ к обезличенным базам данных на Kaggle. • Ресурсы Мосмед AI и зарубежные университеты предоставляют данные для обучения. 00:07:33 Этические аспекты сбора данных • Сбор данных для исследований требует одобрения этического комитета. • Вопросы этики становятся актуальными при широком применении ИИ в медицине. 00:10:13 Ключевые показатели внедрения ИИ • Определены коэффициенты эффективности для ФМБА и Минздрава. • Показатели включают увеличение исследований по МРТ, рентгенографии и компьютерной томографии. • Необходимо удвоить количество применений технологий ИИ для работы с временными рядами. 00:12:38 Мультимодальная обработка данных • Мультимодальная обработка включает анализ текстовых данных, кардиограмм, медицинских изображений и генетических тестов. • Пример: расчёт риска сердечно-сосудистых заболеваний на основе данных из медицинской карты, кардиограммы и результатов генетических тестов. 00:13:43 Интеграция с государственными системами • Требования к интеграции с государственными информационными системами повышают планку по защите. • Объект критической информационной инфраструктуры требует особого внимания. 00:14:54 Угрозы нарушителей • Широкое применение ИИ создаёт большие возможности для нарушителей. • Федеральная служба технического и экспортного контроля курирует вопросы применения ИИ в медицине. • Приказы службы касаются обработки персональных данных и защиты государственных систем. 00:16:35 Требования к программным изделиям в медицине • Федеральная служба устанавливает технические требования к программным изделиям. • База данных угроз безопасности информации включает 227 элементов. • Угроза нарушения функционирования технологий ИИ добавлена в перечень. 00:18:29 Источники угроз и их причины • Два источника угроз: внешний и внутренний нарушитель. • Возможные причины угроз: отсутствие обучающей выборки данных и недостатки моделей машинного обучения. 00:19:51 Проблемы прозрачности нейронных сетей • Необходимость алгоритма для объяснения решений нейросети. • Нейронные сети часто работают как «чёрные ящики». • Большинство технологий анализа медицинских изображений используют сверточные нейронные сети. 00:22:52 Федеральные законы и защита данных • Закон №152 защищает персональные данные. • Медицинские данные отнесены к специальной категории. • Закон №187 регулирует требования к информационным технологиям для объектов критической информационной инфраструктуры. 00:26:38 Классификация алгоритмов по степени риска • Важно классифицировать алгоритм по степени риска. • Алгоритмы, используемые в медицинских изделиях, требуют валидации. • Пример: градусник является медицинским изделием, а фитнес-трекер — нет. 00:30:01 Гиперпараметры модели и точность • Изменение гиперпараметров модели влияет на точность. • Точность измеряется мерой F1, которая должна быть выше 0,85 для клинической апробации. 00:31:05 Доверенные технологии ИИ • Доверенные технологии включают контроль персонала, процесса обучения и качества обучающей выборки. • Требования включают этические аспекты. 00:34:52 Работа с рисками в ИИ • Необходимость дополнительного набора данных для выявления недостоверных ответов сервиса. • Стандарт ISO 31000 для работы с рисками в области ИИ. • Формирование модели нарушителя на этапе сбора данных.

Иконка канала Bauman AI: math + ML
37 подписчиков
12+
6 просмотров
12 дней назад
12+
6 просмотров
12 дней назад

00:00:00 Введение в применение нейросетей в здравоохранении • Здравоохранение лидирует по внедрению искусственного интеллекта. • Увеличение внедрения ИИ создаёт новые угрозы безопасности. • Задача — понять эти угрозы и способы их преодоления. 00:01:03 Классификация данных • Данные классифицируются на три группы: временные ряды, медицинские изображения и геномные данные. • Классификация помогает лучше понять тематику. 00:01:50 Тренды в применении ИИ • США, Россия и Китай активно применяют ИИ в здравоохранении. • Основной тренд — обработка медицинских изображений. • Возрастает количество программных реализаций для работы с временными рядами. 00:02:52 Государственные стандарты и рост числа изделий • В России существуют государственные стандарты для работы с ИИ. • На декабрь 2025 года в реестре было 56 изделий, что значительно больше, чем в 2024 году. • Тренд на применение цифровых изображений и работу с временными рядами сохраняется. 00:04:23 Источники данных для ИИ • Популярность ИИ связана с наличием данных и алгоритмов. • Доступ к обезличенным базам данных на Kaggle. • Ресурсы Мосмед AI и зарубежные университеты предоставляют данные для обучения. 00:07:33 Этические аспекты сбора данных • Сбор данных для исследований требует одобрения этического комитета. • Вопросы этики становятся актуальными при широком применении ИИ в медицине. 00:10:13 Ключевые показатели внедрения ИИ • Определены коэффициенты эффективности для ФМБА и Минздрава. • Показатели включают увеличение исследований по МРТ, рентгенографии и компьютерной томографии. • Необходимо удвоить количество применений технологий ИИ для работы с временными рядами. 00:12:38 Мультимодальная обработка данных • Мультимодальная обработка включает анализ текстовых данных, кардиограмм, медицинских изображений и генетических тестов. • Пример: расчёт риска сердечно-сосудистых заболеваний на основе данных из медицинской карты, кардиограммы и результатов генетических тестов. 00:13:43 Интеграция с государственными системами • Требования к интеграции с государственными информационными системами повышают планку по защите. • Объект критической информационной инфраструктуры требует особого внимания. 00:14:54 Угрозы нарушителей • Широкое применение ИИ создаёт большие возможности для нарушителей. • Федеральная служба технического и экспортного контроля курирует вопросы применения ИИ в медицине. • Приказы службы касаются обработки персональных данных и защиты государственных систем. 00:16:35 Требования к программным изделиям в медицине • Федеральная служба устанавливает технические требования к программным изделиям. • База данных угроз безопасности информации включает 227 элементов. • Угроза нарушения функционирования технологий ИИ добавлена в перечень. 00:18:29 Источники угроз и их причины • Два источника угроз: внешний и внутренний нарушитель. • Возможные причины угроз: отсутствие обучающей выборки данных и недостатки моделей машинного обучения. 00:19:51 Проблемы прозрачности нейронных сетей • Необходимость алгоритма для объяснения решений нейросети. • Нейронные сети часто работают как «чёрные ящики». • Большинство технологий анализа медицинских изображений используют сверточные нейронные сети. 00:22:52 Федеральные законы и защита данных • Закон №152 защищает персональные данные. • Медицинские данные отнесены к специальной категории. • Закон №187 регулирует требования к информационным технологиям для объектов критической информационной инфраструктуры. 00:26:38 Классификация алгоритмов по степени риска • Важно классифицировать алгоритм по степени риска. • Алгоритмы, используемые в медицинских изделиях, требуют валидации. • Пример: градусник является медицинским изделием, а фитнес-трекер — нет. 00:30:01 Гиперпараметры модели и точность • Изменение гиперпараметров модели влияет на точность. • Точность измеряется мерой F1, которая должна быть выше 0,85 для клинической апробации. 00:31:05 Доверенные технологии ИИ • Доверенные технологии включают контроль персонала, процесса обучения и качества обучающей выборки. • Требования включают этические аспекты. 00:34:52 Работа с рисками в ИИ • Необходимость дополнительного набора данных для выявления недостоверных ответов сервиса. • Стандарт ISO 31000 для работы с рисками в области ИИ. • Формирование модели нарушителя на этапе сбора данных.

, чтобы оставлять комментарии