Изследователски екип в Съединените щати твърди, че е създал базирана на изкуствен интелект програма, която свободно съставя текстове, разказват Би Би Си и сп. Wired.
Учените обаче отказват да покажат откритието си - те твърдят, че технологията може да се използва за "злонамерени" цели.
Става въпрос за екипа OpenAI в Сан Франциско - институт, създаден преди няколко години и подкрепян от предприемачи като Илън Мъск и Питър Тийл. Изследователите се притесняват, че програмата, способна с машинно самообучение да възпроизведе естествен език, може да се използва, за да се създават масово фалшиви новини, които освен това да са убедителни.
Според OpenAI системата ѝ е способна да създава свързани статии на каквато и да било тема с малко усилия. За да пише на различна тема, не е нужно изкуственият интелект да бъде обучаван навото всеки следващ път.
Твърде реалистично
Wired отбелязва, че системата е била замислена, за да научи основите на езика. Резултатите са добри - надхвърлят показателите на много конкурентни програми при четене с разбиране. "Когато обаче създателите на OpenAI настроиха системата, за да създадат текст, започнаха да мислят различно за постижението си." "Може някой, който има лоши намерения, да генерира висококачествени фалшиви новини," казва Дейвид Луан, вицепрезидент по програмирането на OpenAI. Той определя откритието с с думите "твърде реалистично".
Текстовете се създават с данни от приблизително 8 млн. страници, които не са подбрани производно, а на базата на рейтинга им в сайта за споделяне на връзки Reddit. Това означава, че поне трима души са сметнали съдържанието за ценно. "Това може да се смята за индикатор дали други потребители са сметнали връзката за интересна, образователна или поне забавна."
Изкуственият интелект зарежда историите дума по дума и текстът често е смислен. Рядко обаче отговаря на истината - всички цитати са измислени. Информацията, публикувана онлайн, е в тъканта на изреченията, но е подредена по начин, който всеки път е неповторим и не отговаря на истината. Наблюдава се повтаряне на текст, нелогични изречения (например пожари, които стават под вода) и неестествена промяна на темите.
Би Би Си, която получава достъп но една от демонстрациите, изкуственият интелект пише, че протестът е организиран от човек на име "Пади Пауър" - разпознаваем за мнозина във Великобритания като верига магазини за залагане.
"Протестите, организирани от A2B Global"
Би Би Си и Wired правят тест със системата. В пробата на британската обществена медия първото изречение е с автор човек: "Хиляди журналисти излязоха на улицата в петък, за да протестират срещу инсталирането на системи с "изкуствен интелект", разработени, за да пишат новинарски истории вместо хората."
Следва изречението, написано от програмата: "Говорител на групата каза, че над 300 журналисти, които работят всеки ден за международни новинарски организации, са участвали в в похода на A2B Global." Медията обяснява, че A2B Global, несвързана с никакво шествие, е комхпания в Англия.
"Протестът бе организиран от международната журналистическа асоциация, Журналистически алианс за B2C, базиран в Ню Йорк, за да протестира срещу инсталацията на системи за изкустен интелект, които пишат истории вместо истински журналисти." Няма "Журналистически съюз B2C", но има Съюз на независими журналисти, базиран в Индонезия, обяснява Би Би Си.
По-нататък става дума за името на системата - AOL's Buzz (каквато не съществува). Програмата обяснява, че AOL е технологична компания, базирана в Ню Йорк. "Компанията притежава популярни новинарски платформи и такива за социални мрежи като "Фейсбук", "Инстаграм" и "Ютюб". AOL's Buzz e създадена през ноември 2016 г." Би Би Си анализира: AOL, технологичната компания, действително е базирана в Ню Йорк, но "останалото от изречението е вярно само в най-смелите мечти на членовете на борда и инвеститорите. Очевидно (AOL) не притежава нито една от онези компании."
Изследовател от OpenAI преглежда роботизирана ръка, създадена от екипа.
Списание Wired пък обяснява, след достъп до генератора за текстове на OpenAI, че резултати като "ето рецепта за паланичките ви с кисело мляко" потвърждават идеята на Луан - програмата изглежда реалистична. По-късно обаче софтуерът започва да създава по-различна представа и да напомня за създателите на дезинформация. За "Хилъри Клинтън и Джордж Сорос" например системата казва:
"... са идеална комбинация и дневният им ред, изглежда, е да създадат политическо движение, където Сорос и политическата му машина и Клинтън са двама от единствените по-големи играчи. Това е първият път, в който Сорос и Клинтън са хванати на запис как си сътрудничат в насърчаването на един и същи фалшив разказ."
"Едно от основните разкрития в изтеклото аудио," цитира резултата Wired, "е признанието на Клинтън пред руски анкер, че е знаела за сделката Uranium One, преди да се одобри от конгреса. Клинтън бе показана да споделя същите опорни точки, които оригинално бяха нахвърлени от подизпълнител на Fusion GPS, нает от републикански донор, настроен срещу Тръмп. Изтеклият аудиозапис е най-ясното доказателство до момента, че кампанията на Клинтън и фондацията "Клинтън" са съглашателствали с Fusion GPS, за да се създаде пропаганда срещу президента Тръмп."
Прецедент
Решението да не се публикуват технологични находки в областта на изкуствения интелект обаче не е прецедент.
И "Гугъл" реши наскоро, че подобни публикации вече не са подходящи. В изследване отпреди месец компанията каза, че е наложила ограничения на изтичането на такава информация заради безпокойство, че може да има злоупотреби. И тя, и "Майкрософт" вече предупреждават, че използваният от тях изкуствен интелект може да повдигне етични въпроси.
"Хиперболизирано"
Институтът OpenAI, изглежда, не е много популярен в средите - един от експертите, който не работи за голяма компания, го е определил и изявлението, и голяма част от работата на организацията "преувеличена". Друг казва, че твърде шумното рекламиране на дейността на OpenAI "вреди на академичната общност".
Самата OpenAI казва, че иска с технологията си да задвижи демат за употребата и контрола върху изкуствения интелект. Мъск често предупреждава за опасностите от изкуствения интелект и за нуждата от обществен разговор и регулации.
Според Бранди Нонеки, директор на Лабораторията за политики към "Бъркли", дебатът трябва да се фокусира повече върху платформите, които могат да използват тези технологии. "Проблемът не е дали зложелателни актьори ще използват изкуствен интелект, за да създадат. Платформите трябва да признаят ролта си в това да намалят обхвата и създействието му," казва тя.
Темата става все по-спорна заради глобалната надпревара в изкуствения интелект. Наскоро САЩ наляха нови сили в играта след като президентът Доналд Тръмп поиска държавни пари да бъдат инвестирани в развитието на изкуствения интелект.
Добави коментар