Сделать домашней страницей // Главная // Новости // Интернет  Навигация по порталу: 
Новости
Почта
Форум
Афиша
Дневники
Чаты
Знакомства
Недвижимость
Туризм
Альбомы
Гороскопы
Объявления
Видео
Кулинария
Фавориты Пишите Информация
Поиск в интернете
 Последние новости
Интернет
Наука
В мире
Общество
Курьезы
Новости Израиля
Новости городов Израиля
Культура
ТВ анонсы
Медицина и здоровье
Непознанное
Спорт
Происшествия
Безопасность
Софт
Hardware
Туризм
Кулинария
От редактора
Архив новостей
<< Май 2024 >>
Пн Вт Ср Чт Пт Сб Вс
    1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30 31    

Поиск в новостях
Новостные сайты
Российский центр культуры
Корреспондент.net
DELFI
Day.Az
ПРАВДА
Пресса Молдовы
Лента.ру
Новый регион 2
ЦентрАзия
ГрузияOnline
Еврейский центр
Благовест
Христианское общение
Авиабилеты Журнал Леди Экспорт новостей Бизнес каталог
Афиша Фотогалереи Экспорт гороскопов Хостинг
Погода Анекдоты Новости потребителя Реклама в интернете
Игры Отдых в Израиле Доска объявлений Построение сайтов
Интернет
  22.04.2024 02:16 | Новая нейросеть VASA-1 от Microsoft может генерировать видео на основании фото
Алгоритм новой нейросети позволяет не просто увидеть человека, сгенерированного с помощью ИИ, но и получить на кадрах естественную мимику и широкий спектр эмоций. Эксперты уже увидели в новшестве опасность, которую оно будет представлять для незащищенных слоев населения: детей и пожилых людей. Пока Microsoft не собирается выпускать продукт на рынок

Не отличить от реальности. Microsoft представила новую нейросеть VASA-1, с помощью которой можно создавать дипфейки по одной лишь фотографии. Теперь стоит лишь загрузить фото и аудиодорожку — и можно получить видео с полной синхронизацией губ со звуком. А само видео создается с частотой 40 кадров в секунду.

Алгоритм новой нейросети позволяет не просто увидеть говорящего человека, сгенерированного с помощью ИИ, но еще и получить на кадрах естественную мимику и широкий спектр эмоций. Главным отличием от других похожих систем разработчики Microsoft назвали целостную модель генерации движений головы и лицевой мимики.

Саму генерацию возможно даже контролировать. В частности, задавать эмоции, расстояние от камеры и направление взгляда. Тем самым становится все сложнее отличать реальное видео от созданного искусственным интеллектом.

На представленных примерах Microsoft люди действительно выглядят реалистично. Но если всматриваться более детально, то можно заметить и размытость мимики, и плывущие губы, которые не попадают в такт звуку. Так что тут нейросети еще предстоит потренироваться.

В любом случае у мошенников появляется возможность занять новую нишу. Особенно если соединить ту же нейросеть OpenAI, которая может генерировать ваш голос, и новую от Microsoft. Продолжает гендиректор Dbrain, автор телеграм-канала AI Happens Алексей Хахунов:

Алексей Хахунов
гендиректор Dbrain, автор телеграм-канала AI Happens
«Совмещая два этих направления, мы, по сути, можем получить видео с вашим голосом, ну, насколько это возможно, вашим, и много где использовать. На самом деле подобные вещи могут использоваться для манипуляции детьми. Представьте, что вашему ребенку звонит, может быть, даже по видео мама и говорит: «Сейчас придет вот этот дядя, открой ему дверь». В общем, можно придумать разные сценарии, как это может работать. И, ну, если мы, взрослые люди, способны больше поддаваться какому-то критическому мышлению, в каком контексте мы находимся, что происходит, то в истории с детьми это имеет много рисков».

Сейчас среди компаний идет настоящая «гонка вооружений» по созданию технологий искусственного интеллекта. И пока такая нейросеть не пошла в массы, крупные игроки должны подумать, как обезопасить людей, говорит управляющий RTM Group, эксперт в области информационной безопасности и права в ИТ Евгений Царев:

Евгений Царев
управляющий RTM Group, эксперт в области информационной безопасности и права в ИТ
«Подобного рода публичные нейросети будут появляться и от других компаний, то есть они будут демонстрировать, что они умеют, и какие-то применения будут появляться. И, что, опять же, немаловажно, мы живем в таком мире, когда и алгоритмы будут утекать, и старые версии алгоритмов будут утекать, и злоумышленники будут инвестировать в эту историю. И это бесконечная теперь история точно так же, как в свое время, когда появился интернет, вирусы стали появляться — стали развиваться антивирусные компании, вообще, целый сектор информационной безопасности. Вот он возник по большому счету только благодаря тому, что появилось такое изобретение, как интернет, но вот сейчас появился искусственный интеллект, вполне себе живой, и это точно так же создаст новый сектор экономики».

Похоже, близких уже сейчас надо предупреждать, что не стоит сразу доверять видео, где находитесь вы. Возможно, его сгенерировали мошенники. В частности, из-за этого в самом Microsoft заверили, что пока не планируют выпускать продукт на рынок.

Текст: Екатерина Каляпина

Первоисточник: bfm.ru »
Новости по теме
19.04.2024 | Galaxy Fashion Tech Show: связь технологии и моды
17.04.2024 | Маск задумался о введении платы за посты для новых пользователей
12.04.2024 | Apple уведомила пользователей из 92 стран об угрозе взлома
12.04.2024 | Samsung Galaxy S24 с Galaxy AI — персональный гид в вашем кармане
08.04.2024 | Исследование: рост рекламодателей в Telegram в 2023 году составил 80%
03.04.2024 | Искусственный интеллект научился различать правду и ложь
02.04.2024 | DNI в мобильном: когда такое случится? Мобильное удостоверение личности
01.04.2024 | Чехия ворвалась в топ-5 экспортеров литиевых аккумуляторов
01.04.2024 | В Генассамблее ООН приняли резолюцию по искусственному интеллекту
27.03.2024 | Искусственный интеллект научился различать правду и ложь

Поиск знакомств
 Я
 Ищу
от до
 Новости  Скидки и предложения  Мода  Погода  Игры он-лайн  Интернет каталог
 Дневники  Кулинарная книга  Журнал Леди  Фотоальбомы  Анекдоты  Бесплатная почта
 Построение сайтов  Видео  Доска объявлений  Хостинг  Гороскопы  Флэш игры
Все права защищены © Алексей Каганский 2001-2008
Лицензионное соглашение
Реклама на сайте
Главный редактор Новостного отдела:
Валерий Рубин. т. 054-6715077
Связаться с редактором