Прескочи към основното съдържание
Вход / Регистрация

Експерти: Чатботове са обречени да съчиняват лъжи

5 коментара
Експерти: Чатботове са обречени да съчиняват лъжи

Не е тайна, че чатботовете с изкуствен интелект, като ChatGPT на OpenAI, са твърде склонни да си измислят информация.

Те са също толкова добри в измислянето на факти, колкото и в това да ви помагат в работата - и когато смесят двете неща, може да се стигне до катастрофа, съобщава "The Byte".

Въпросът дали хората, които разработват изкуствения интелект, могат да решат този проблем, остава предмет на дискусия. Някои експерти, включително мениджъри, които предлагат тези инструменти на пазара, твърдят, че тези чатботове са обречени вечно да съчиняват лъжи, въпреки всички усилия на създателите им.

"Не мисля, че днес има модел, който да не страда от някаква илюзия", каза Даниела Амодей, съосновател и президент на Anthropic, създател на чатбота с изкуствен интелект Claude 2, имайки предвид генерирането на неточни текстове.

"Чатботовете наистина са създадени, за да предсказват следващата дума. И така, ще има някакъв процент възможност, в който моделът винаги ще върши тази задача неточно", допълва тя.

А това не вещае нищо добро, като се има предвид, че технологичните компании са инвестирали много в технологиите. Например Google, която тайно предлага на големите вестници генератор на новини, базиран на изкуствен интелект.

Други новинарски агенции вече експериментират с технологията, като създават съдържание, генерирано от изкуствен интелект, което често е изпълнено с неточности.

С други думи, без възможността чатботовете да коригират лошата склонност да си измислят, компаниите може да се сблъскат с големи затруднения, докато проучват нови начини за използване на технологията.

"Това не може да се поправи", казва Емили Бендър, професор по лингвистика и директор на Лабораторията за компютърна лингвистика към Вашингтонския университет.

То е присъщо на несъответствието между технологията и предложените начини на употреба, допълва Бендър. Според нея само "по случайност, генерираният текст от изкуствен интелект текст, може да бъде интерпретиран като нещо, което ние хората считаме за правилно."

Технологичните лидери обаче са оптимистично настроени, което не е съвсем изненадващо, като се има предвид, че става въпрос за милиарди долари.

"Мисля, че ще успеем да намерим решение на проблема", заяви главният изпълнителен директор на OpenAI Сам Алтман пред аудитория в Индия по-рано тази година. "Смятам, че това ще ни отнеме година и половина, две години - нещо такова", допълни той.

Компании като OpenAI и Anthropic сега са въвлечени в трудна битка. Ако има нещо сигурно, то е, че да накараме чатботовете да казват истината по надежден начин ще бъде всичко друго, но не и лесно, ако изобщо е възможно.

По БГНЕС

подкрепете ни

За честна и независима журналистика

Ще се радваме, ако ни подкрепите, за да може и занапред да разчитате на независима, професионална и честна информационно - аналитична медия.

5 коментара

Екипът на Mediapool Ви уведомява, че администраторите на форума ще премахват всички мнения, съдържащи нецензурни квалификации, обиди на расова, етническа или верска основа.

Редакцията не носи отговорност за мненията, качени в Mediapool.bg от потребителите.

Коментирането под статии изисква потребителят да спазва правилата за участие във форумите на Mediapool.bg

Прочетете нашите правила за участие във форумите.

За да коментирате, трябва да влезете в профила си. Ако нямате профил, можете да се регистрирате.



  1. Udo
    #5
    Отговор на коментар #3

    Според мен, проблема е, че хората с IQ < 120, изобщо не разбират за какво става въпрос и го играят "аз този филм не съм го гледал, но филма е лош". И през ум не им минава, че лошите отговори са зааради лоши двусмислени и трисмислени въпроси. Тия с фалшиво високо IQ (110 < IQ < 120) имат и фалшиво високо самочувствие (Дънинг-Крюгер) и си мислят "щом аз не мога, значи е лошо за всички". -----------------
    Който иска да го ползва, то да си го ползва.
    А който не иска, то да

  2. Калико Джо
    #4

    Реално, колкото повече информация натрупва AI толкова по-глупав става, защото не само политическите, но даже научните издания са пълни с фалшиви резултати и лъжи, да не говорим за рекламите на един или друг продукт, които го възхваляват необективно. Реално като изключим фактите от Енциклопедията, всичко друго подлежи на съмнение. Имаше наскоро една статия за експеримент с ChatGPT в Станфорд, в който при зададени математически задачи, то е дало 98% верни отговори преди година и около 4% сега, т.е.

  3. Иван Арнаудов
    #3
    Отговор на коментар #2

    Фундаменталният проблем е, че хората масово не ползват AI по предназначение и си мислят, че това е по-напреднала търсачка от Google. Това е катастрофална грешка. Настоящите модели на AI са демонстрация на абсолютното проявление на ефекта Дънинг-Крюгер — те наистина не знаят, че не знаят всичко, и са неспособни да разбират, че имат празнини в знанията си. И този проблем наистина няма решение, както посочва цитираната в статия професорка, понеже знанието е безкрайно.

    Това, което може да се направи

  4. Udo
    #2

    Някъде, някой беше написал, че по отношение на досегашното развитие на публичните AI, сляпото ползване на отговорите (конкретно на GhatGPT) граничи с безотговорност. И едновременно с това НЕползването граничи с глупост и пропускане на много ползи във вид на бързи и лесни решения на трудни въпроси. Рецептата която беше посочил (за сегашното развитие на ChatGPT) беше такава: ------- 1. Как да направя това ? ------- 2. Дай алтернативно решение ------- 3. Сравни решенията

  5. кривак
    #1

    Да сега вече проумях,явно крадливия Толуп от Банкя е Чатбот.

Препоръчано от редакцията

подкрепете ни

За честна и независима журналистика

Ще се радваме, ако ни подкрепите, за да може и занапред да разчитате на независима, професионална и честна информационно - аналитична медия.