Хотя он еще не доступен для использования, производитель ChatGPT утверждает, что инструмент генеративного искусственного интеллекта сможет создавать высококачественные видео на основе письменных подсказок.
В четверг создатель ChatGPT представил свой следующий шаг в области генеративного искусственного интеллекта (ИИ) с помощью инструмента, который мгновенно создает короткие видеоролики в ответ на письменные команды.
Новый генератор текста в видео OpenAI, базирующийся в Сан-Франциско, под названием Sora, не первый в своем роде. Google, Meta и стартап Runway ML входят в число других компаний, продемонстрировавших подобную технологию.
Но высокое качество видеороликов, отображаемых OpenAI (некоторые из них после того, как генеральный директор Сэм Альтман попросил пользователей социальных сетей присылать идеи для письменных подсказок), поразило наблюдателей, а также вызвало опасения по поводу этических и социальных последствий.
«Инструктор по приготовлению домашних ньокки, организованный бабушкой, влиятельной личностью в социальных сетях, в деревенской тосканской деревенской кухне с кинематографическим освещением», — предложил на X (ранее Twitter) фотограф-фрилансер из Нью-Гэмпшира в США.
Спустя некоторое время Альтман ответил реалистичным видео, в котором было показано то, что описывалось в подсказке.
Консультирование художников OpenAI перед выпуском
Инструмент пока не доступен публично, и OpenAI раскрыла ограниченную информацию о том, как он был создан.
Компания, на которую подали в суд некоторые авторы и газета New York Times за использование защищенных авторским правом письменных произведений для обучения ChatGPT, также не раскрыла, какие источники изображений и видео использовались для обучения Sora.
Компания платит Associated Press нераскрытую сумму за лицензию на свой архив текстовых новостей.
OpenAI сообщила в своем блоге, что сотрудничает с художниками, политиками и другими людьми, прежде чем представить новый инструмент публике.
«Мы работаем с красными командами — экспертами в таких областях, как дезинформация, разжигающий ненависть контент и предвзятость, — которые будут состязательно тестировать модель», — заявили в компании.
«Мы также создаем инструменты, помогающие обнаруживать вводящий в заблуждение контент, например классификатор обнаружения, который может определить, когда видео было создано Sora».