Как надпреварата за инвестиции в изкуствен интелект създава „технологична безработица”

Изкуственият интелект е новата дигитална граница и от"Майкрософт" (Microsoft) до "Гугъл" (Google), от "Амазон" (Amazon) до "Мета" (Meta),технологичните колоси инвестират милиарди в него. С това обаче рискът от така наречената "технологична безработица" нараства.

От пускането си на 30 ноември миналата година "ЧатДжиПиТи" (ChatGPT), най-известният в момента чатбот, който се базира на изкуствения интелект, се превърна в своеобразен феномен. Програмата е последният прототип, създаден от "ОупънЕйАй" (OpenAI), лаборатория за проучвания в Калифорния, която популяризира разработването на т. нар. приятелски ЕйАй (AI) и се основава на предишния изкуствен интелект на групата "ДжиПиТи-3" (GPT-3). 

"ЧатДжиПиТи" е толкова "апетитен", че вече привлече погледа и финансирането на "Майкрософт" (Microsoft). Технологичният гигант обяви, че осъществява "многогодишна и многомилиардна инвестиция" от 10 милиарда долара в "ОупънЕйАй". Американската компания вече е инвестирала над 3 милиарда долара в "ОупънЕйАй". Новото споразумение е ясен сигнал за важността на изкуствения интелект за бъдещето на технологичния гигант в конкуренцията му с други големи колоси в сектора като "Гугъл" (Google), "Мета" (Meta) и "Епъл" (Apple).

Съществените инвестиции на големите технологични компании в изкуствения интелект излизат далеч извън рамките на сегашния интерес към "ЧатДжиПиТи" и са свидетелство, че макар и да не се предвижда в краткосрочен план пълна замяна на човешкия фактор, то машините ще са все по-интегрирани в живота и действията на хората. И този факт поражда не малко въпроси от етична гледна точка.  

Автоматизацията се е превърнала в приоритет във всички области: напредъкът преминава през механизацията и малцина се замислят каква ще е съдбата на служителите, които поне според статистическите данни, икономическите  и научни прогнози ще загубят работните си места. Роботиката скоро ще направи възможно създаването на поколение от толкова интелигентни машини, които ще могат да заменят не само тежкия труд , но и "белите якички". Така ще се постави началото на феномен, който вече бе прогнозиран от Джон Мейнард Кейнс – "технологична безработица" или загубата на работа, дължаща се на технологичния преход. Тази промяна се отнася единствено за въвеждането на технологии, които позволяват да се намали тежестта на труда на служителите и да се внедри автоматизация.

Кейнс изразява безпокойство си от краткосрочната "неспособност за адаптиране", която вероятно отразява и настоящия проблем с автоматизацията: неадекватността на институциите и на цялото общество да управлява, организира и следва темпа на техническа промяна, както и влиянието на нововъведенията върху служителите. Когато технологията елиминира  (както се е случвало в миналото) конкретен вид работа или цяла категория служители, то те трябва да се приспособят към промяната, подобрявайки компетенциите си и намирайки си ново работно място. Този процес може да отнеме време. За по-оптимистично настроените анализатори става дума за преходна фаза, в края на която цялото общество ще се възползва отвнесените иновации, а икономиката ще намери ново равновесие.

Ако обаче е нужно повече време от едно десетилетие, за да се постигне това равновесие? Как това ще отрази на милиони работни места, които в най-скоро време ще бъдат съкратени? А ако впоследствие технологията отново се модифицира и служителите не могат да следват промените?

Трябва да се запитаме дали пропастта между технологичния напредък и приспособяването на служителите може да бъде преодоляна или това е необратим процес, който допълнително ще засили неравенството. 

Експертите не са на единно мнение и по въпроса дали хората наистина трябва да знаят как функционира изкуственият интелект. Интуитивно способността да се следва алгоритъма би трябвало да е по-силна от невъзможността това да се направи, пише "Економист". Проучване на учени от Харвардския университет, Масачузетския технологичен университет и Политехническия университет в Милано показва , че твърде многото обяснения могат да се превърнат в проблем.

Служители в американската мултинационална компания "Тейпистри" (Tapestry), която има портфолио от луксозни марки, са получили достъп до модел за прогнозиране, който им казва как да разпределят складовите наличности в магазините. Някои използват модел, чиято логика може да бъде интерпретирана, а други модел, който e по-скоро "черна кутия" (най-известният концептуален модел на потребителско поведение). Оказва се, че служителите са били по-склонни да игнорират модели, които могат да разберат, тъй като погрешно са били сигурни  в интуицията си. Те са били готови да приемат решенията на модела, който не могат да разберат заради доверието им в опита на хората, които са го създали.
Различните начини, по които хората реагират на други хора и на алгоритми са обект на все повече проучвания. В неотдавнашен доклад Гизем Ялчън от Тексаския университет в Остин и съавтори разглеждат как потребителите отговарят различно на решения - одобряване на някого за заем или членство в кънтри клуб - когато те са направени от машина или човек. Според тях хората реагират по същия начин, когато са отхвърлени. Те не са толкова положително настроени, когато са одобрени от алгоритъм, а не от друг човек.

Причината за това? Хората се справят добре, когато обясняват неблагоприятни решения,независимо кой ги взима. По-трудно за тях е обаче да припишат успеха на кандидатурата си на собствения си чар и способности, когато те са оценени от машина. Хората искат да се чувствата специални, а не да са сведени до точка с данни.

Картината, която това проучване рисува, поражда смесени чувства.Тя е динамична, тъй като, както технологиите еволюират, така това се случва и с човешките нагласи. Едно нещо обаче е кристално ясно, отчита "Економист". Въздействието на "ЧатДжиПиТи" и други форми на изкуствен интелект ще зависи не само от това, което могат да направят, но и как ще накарат да се чувстват хората.

Източник: dariknews.bg

Видеа по темата

Facebook коментари

Коментари в сайта (1)

Трябва да сте регистриран потребител за да можете да коментирате. Правилата - тук.

Случаен виц

Последни новини