Прескочи към основното съдържание
Вход / Регистрация

Технологията крие “страшни” опасности. Съжалявам, че работих за него

0 коментара
сн. БГНЕС

Джефри Хинтън, смятан за кръстник на изкуствения интелект, напусна работа, предупреждавайки за нарастващите опасности, свързани с развитието на тази технологична област, съобщи “Ню Йорк Таймс” във вторник.

75-годишният специалист се оттегли от Googlе, като заяви, че сега съжалява за работата си в сферата на изкуствения интелект.

Хинтън добави, че някои от опасностите, свързани с чатботовете с изкуствен интелект, са "доста страшни".

"В момента те не са по-интелигентни от нас, доколкото мога да кажа. Но мисля, че скоро биха могли да станат.", каза Хинтън. Той също така призна, че възрастта му е повлияла на решението му да напусне технологичния гигант, като заяви: "Аз съм на 75 години, така че е време да се пенсионирам."

Пионерските изследвания на д-р Хинтън в областта на невронните мрежи и задълбоченото изучаване проправиха пътя на настоящите системи за изкуствен интелект като ChatGPT.

В изкуствения интелект невронните мрежи са системи, които са подобни на човешкия мозък по начина, по който учат и обработват информация. Те дават възможност на ИИ да се учи от опита си, както би го направил човек. Това се нарича задълбочено изучаване.

Британско-канадският когнитивен психолог и компютърен учен заяви, че чатботът скоро може да надмине нивото на информация, което притежава човешкият мозък.

"Точно сега виждаме, че неща като GPT-4 ни засенчват по количеството общи знания, които имат, и то с много голяма разлика. По отношение на разсъжденията той не е толкова добър, но вече може да прави прости разсъждения", допълва ученият.

"И като се има предвид скоростта на напредъка, очакваме нещата да се подобрят доста бързо. Така че трябва да се тревожим за това.", добави ученът.

Хинтън говори за "лоши субекти", които ще се опитат да използват изкуствения интелект за "лоши неща".

"Това е просто най-лошият сценарий, нещо като кошмарен сценарий", уточни той.

"Можете да си представите, например, че някой субект с лоши намерения като руския президент Владимир Путин реши да даде на роботите възможност да създават свои собствени подцели.", каза той.

Ученият предупреждава, че това в крайна сметка може да "създаде подцели като "Трябва да получа повече власт".

"Стигнах до заключението, че видът интелект, който развиваме, е много различен от този, който имаме", добавя Хинтън.

"Ние сме биологични системи, а те са цифрови системи. И голямата разлика е, че при цифровите системи имате много копия на един и същ набор от величини, на един и същ модел на света.", заяви той.

"И всички тези копия могат да се учат поотделно, но споделят знанията си незабавно. Така че е все едно да имате 10 000 души и когато един човек научи нещо, всички автоматично да го знаят. И ето как тези чатботове могат да знаят много повече от всеки един човек.", посочи ученият.

подкрепете ни

За честна и независима журналистика

Ще се радваме, ако ни подкрепите, за да може и занапред да разчитате на независима, професионална и честна информационно - аналитична медия.

0 коментара

Екипът на Mediapool Ви уведомява, че администраторите на форума ще премахват всички мнения, съдържащи нецензурни квалификации, обиди на расова, етническа или верска основа.

Редакцията не носи отговорност за мненията, качени в Mediapool.bg от потребителите.

Коментирането под статии изисква потребителят да спазва правилата за участие във форумите на Mediapool.bg

Прочетете нашите правила за участие във форумите.

За да коментирате, трябва да влезете в профила си. Ако нямате профил, можете да се регистрирате.

Препоръчано от редакцията

подкрепете ни

За честна и независима журналистика

Ще се радваме, ако ни подкрепите, за да може и занапред да разчитате на независима, професионална и честна информационно - аналитична медия.