Прескочи към основното съдържание
Вход / Регистрация

Sora - нови хоризонти пред изкуствения интелект или мрачното бъдеще на дезинформацията

3 коментара
Новият модел изкуствен интелект Sora създава реалиситчни видеа само с текстово описание, Сн. Getty Images

Чудили ли сте се как ще изглеждат лабрадори, водещи подкаст сред природата, или пиратски кораб, плаващ в бурните вълни на сутрешното кафе? Скоро вероятно ще може да разберете това, благодарение на новия модел изкуствен интелект на OpenAI – Sora. Той беше представен от компанията на 15 февруари и бързо привлече общественото внимание.

Реалистичността на видеата, генерирани от Sora, е впечатляваща, но заедно с хоризонтите на изкуствения интелект, този модел показва и хоризонтите пред дезинформацията и поражда редица опасения за сигурността, нарастването на фалшивото съдържание онлайн и някои етични проблеми.

Какво представлява Sora?

"Sora представлява иновативен инструмент, който отваря врати към нови хоризонти в създаването на видео съдържание. Можете да си представите Sora като креативен робот, който превръща дори вашите най-смели мечти във видеоклипове. За целта е нужно да напишете текст, който превръща във видео. Той може да създаде видеоклипове с висока резолюция, с дължина до една минута и в различни стилове - реалистични, анимационни и други", коментира пред Mediapool изпълнителният директор на маркетинг агенцията "Zahara Consult" и дигитален експерт Вяра Стефчева.

Sora, което на японски означава "небе", може да генерира сложни сцени с множество герои, специфични видове движение и точни детайли на обекта и фона, посочват създателите на модела от Open AI.

Моделът има "задълбочено разбиране на езика" и може да генерира "завладяващи герои, които изразяват живи емоции". Oсновава се отчасти на вече съществуващи технологии на OpenAI, като генератора на изображения DALL-E и големите езикови модели GPT.

Sora използва трансформаторна архитектура, отключваща превъзходна производителност при мащабиране. Трансформаторите са вид невронна мрежа, представена за първи път от Google през 2017 г. Те са най-известни с използването си в големи езикови модели като ChatGPT и Google Gemini, поясняват в The Conversation.

Старши изследователят в NVIDIA Джим Фан коментира в Х, че моделът е като двигател, управляван от данни и представлява много повече от изобретателна играчка.

За кого е достъпен моделът?

Засега Sora ще бъде достъпен за ред тиймъри (red teamers). Това най-често са експерти по киберсигурност, които подпомагат ИТ компаниите.

Избраната група от хора, които в момента тестват Sora, са "експерти в области като дезинформация, съдържание, пораждащо омраза и предразсъдъци", казва говорител на OpenAI, цитиран от NewScientist.

Освен на този тип експерти достъп ще бъде даден и на графични дизайнери, режисьори и други визуални артисти. Главната цел на създателите е да получат възможно най-добрата обратна връзка, за да може моделът да бъде подобрен и да се избегнат възможни злоупотреби.

Нови хоризонти пред дезинформацията

Появата на Sora показва на целия свят напредъка и хоризонтите пред изкуствения интелект, но повдига и редица опасения за нарастването на дезинформацията и фалшивите новини.

Дезинформацията е сред най-големите проблеми, а и заплахи за сигурността в днешния свят. С развитието на социалните мрежи, както и с напредъка на технологиите и изкуствения интелект хората стават все по-податливи към фалшиво съдържание. Все по-разпространени стават и така наречените "дийпфейкове".

"Дийпфейкът е сред най-новите "оръжия" в арсенала на онлайн измамите. Най-често става въпрос за изображения, видеа или други файлове, които са манипулирани – понякога с цел забавление, но по-често с цел заблуда", отбеляза Вяра Стефчева.

"В много от случаите за направата на подобни изображения и видеа се използва силата на изкуствения интелект. В резултат се създават вълнуващи, но понякога и опасни визуални или аудио файлове, които могат да заблудят дори най-прозорливите потребители", допълва тя.

Според журналиста в отдела за цифрови разследвания на Агенция Франс прес Росен Босев можем само да подозираме какво ще е влиянието на Sora върху дезинформацията.

"Не е тайна, че голяма част от дезинформацията и то тази, която е най-въздействаща, се предава със снимки и/или видеа. Сами можем да се досетим какво ще стане с подобряването на технологиите и тяхната достъпност", заяви той за Mediapool.

Мнозина световни експерти вече коментираха тази тема. Хани Фарид от университета в Бъркли заяви пред NewScientiest, че няма причина да се вярва, че текстът към видео няма да продължи бързо да се подобрява – приближавайки ни все по-близо до времето, когато ще бъде трудно да различим фалшивото от истинското.

"Моделът е напълно способен да създава видеоклипове, които могат да заблудят обикновените хора. Дори не е необходимо видеото да е перфектно, защото мнозинството все още не осъзнава, че видеото може да се манипулира толкова лесно, колкото и снимките", казва съоснователят на организацията от "бели" хакери SocialProof Security Рейчъл Тобак.

Пред CBN професорът в университета във Вашингтон и основател на организацията True Media Орен Енциони изрази безпокойство, че новият модел ще повлияе на оспорваните президентски избори в САЩ.

Всъщност през тази година ключови избори има в близо 40 страни и въпреки че някои от тях отминаха, изборите в Америка и за Европейски парламент тепърва предстоят.

Според Вяра Стефчева въпреки потенциала си, Sora носи и рискове.

"Има възможност за създаване на фалшиви видеоклипове, които могат да се използват за дезинформация. Компанията OpenAI твърди, че се ангажира да работи с институции, за да се гарантира, че Sora се използва отговорно и морално. Трябва да помним, че всяка технология може да се използва както за добри, така и за лоши цели – всичко зависи от нас".

Как да се предпазим от опасността?

Според Росен Босев основните цели на дезинформацията са монетизация на интернет трафика, налагане на определени политически или други виждания, внасяне на смут и разделение сред обществото.

Той коментира, че ставаме свидетели на най-различни форми на дезинформация, особено с клипове. Видеа, извадени от контекст, с добавен звук, с добавен генериран звук, манипулирани deep fakes или изцяло генерирани с AI.

"Според експерти, с които сме се консултирали, в капана попадат известни личности, защото те са по-уязвими - освен, че са разпознаваеми, те имат много медийни изяви, т.е. видео и аудио материал, с който да се "обучи" изкуствения интелект", заяви Росен Босев.

Той даде пример, че в България също имаше видеа, в които известни личности или политици рекламират финансови продукти например.

"Все по-разпознаваема тенденция е дезинформацията да имитира уважавани медии, за да придаде автентичност на посланието. Така например се споделяше манипулирано съдържание, което трябваше да покаже, че френска телевизия съобщава как властите в Париж са разкрили подготвовка за атентнат срещу Макрон при посещението му в Киев. В края на миналата година пък се появи обръщение на вече бивишия главнокомандващ на ВСУ Залужний, в което той уж призоваваше украинците да се вдигнат на бунт", добави той.

Все пак обаче има техники, които всеки един потребител може да използва, за да попада възможно най-рядко в капана на фалшивите новини.

"Има няколко базови правила, които всеки трябва да следва, независимо дали става дума за ИИ или друга дезинформация", каза Росен Босев.

"Да се подхожда със съмнение към всяка публикация, звучаща шокиращо или като сензация. Особено когато става дума за информация, която съвпада с вижданията ни - тогава хората стават още по-безкритични. Ако "новината" не е била отразена от уважавани международни медии също е повод за съмнение. Четете, отново критично, коментарите на другите потребители, които могат да дадат полезна инфорамция", допълва той.

Сред техническите средства са обратното търсене на снимки или видеа и инструменти, които разпознават генерирано съдържание, но техните заключения все още не са достатъчно доказателство.

Освен за политически цели фалшиво съдържание може да бъде използвано с цел лични подбуди и очерняне на нечий имидж.

С грижа за сигурността и перспектива за бъдещето

От Open AI не бързат с предоставянето на достъп на обикновения потребител. Вероятно ще изминат месеци преди всеки да може да ползва услугите на Sora. Създателите осъзнават и опасностите, които моделът крие.

"Нашият класификатор на текст ще проверява и отхвърля текстови заявки за въвеждане, които са в нарушение на нашите политики за използване, като например тези, които изискват крайно насилие, сексуално съдържание, изображения, пораждащи омраза, образи на известни личности или интелектуална собственост на други лица", пишат от OpenAI

Те заявяват, че ще се свържат с политици, академици и творци от цял свят, за да разберат техните опасения от използването на подобна технология.

Колкото и да е добър моделът, той все още не е перфектен. Това поясняват и от компанията.

Настоящият модел има слабости. Той може да се бори с точното симулиране на физиката на сложна сцена и да не разбира конкретни случаи на причина и следствие. Например, човек може да отхапе бисквита, но след това върху нея да няма следи от отхапване.

Моделът може също така да обърка пространствените детайли, например да обърка ляво и дясно, и може да се затрудни с точните описания на събития, които се случват във времето, като например следване на определена траектория на камерата.

Все пак обаче може да се окаже, че модели като Sora могат да помогнат в борбата с дезинформацията. Поне такива надежди има Вяра Стефчева.

"Иска ми се да вярвам, че Sora може да бъде използван за “разкриване” и “улавяне” на дийпфейкове. Изучавайки алгоритмите, които генерират такива фалшиви видеоклипове, и сравнявайки ги с аналогични реални сцени, е възможно да се разработят методи за откриване на фалшиви съдържания. Следователно, въпреки потенциалните рискове, Sora може да играе и ролята на инструмент за борба с дезинформацията, като помага в разкриването на фалшива информация и въвеждането на по-ефективни мерки за противодействие на дийпфейк заплахата", изтъква тя. 

подкрепете ни

За честна и независима журналистика

Ще се радваме, ако ни подкрепите, за да може и занапред да разчитате на независима, професионална и честна информационно - аналитична медия.

3 коментара

Екипът на Mediapool Ви уведомява, че администраторите на форума ще премахват всички мнения, съдържащи нецензурни квалификации, обиди на расова, етническа или верска основа.

Редакцията не носи отговорност за мненията, качени в Mediapool.bg от потребителите.

Коментирането под статии изисква потребителят да спазва правилата за участие във форумите на Mediapool.bg

Прочетете нашите правила за участие във форумите.

За да коментирате, трябва да влезете в профила си. Ако нямате профил, можете да се регистрирате.



  1. boriana
    #3

    Някои от клиповете яко си личат, че са изкуствени, напр. този с котката и легналата жена. Всеки с котка ще ви го каже. Но наистина е подвеждащо, защото изкуствения интерект разчита на незадълбочено проследяване на новината, образа или смисъла. Всичко тече, променя се и мозъкът ти възприема по бързо прочетеното, видяното и чутото, отколкото може да осмисли. Освен това човешната психика е такава, че понякога реагира по емоционално на измислицата, отколкото на истината. Даже я харесва. Един пример- снимка на В. Тървото от високо и едни такива ярки , прекрасни червени покриви, прекрасни фасади. И лайкове, лайкове...Така, че една стъпна напред за фалшивното.

  2. асен
    #2

    колко се промени светът от милениума насам!

  3. Kruger
    #1

    А така. И къде е създадена и базирана компанията? Сан Франсиско, град с по-малко население от София, но определено с несрвавнимо по-малко андрешковци и промити мозъци. И това е без да си имат министерство или щатски комисар по иновациите, без синдикати, трудов кодекс, почивки и отпуски като нашите, иначе така щяха да иновират та пушек да се вдига:))

Препоръчано от редакцията

подкрепете ни

За честна и независима журналистика

Ще се радваме, ако ни подкрепите, за да може и занапред да разчитате на независима, професионална и честна информационно - аналитична медия.