ВИ на Microsoft се шекна: Лаже, се заканува, навредува, изјавува љубов

Откако Microsoft минатата недела ја претстави раната верзија на својот нов пребарувач Bing, кој се базира на вештачка интелигенција, повеќе од милион луѓе го тестираа овој нов четбот. Но, се чини дека во еден момент ВИ почна чудно да се однесува кон корисниците, да ги критикува и да негира очигледни факти.

ВИ на некои им се заканувaше, а на други им даваше чудни и бескорисни совети, па дури и изјавила љубов. Бета-тестерите велат дека откриле „алтернативна личност“ наречена Sydney во рамките на четботот, пишува CNBC. Четботот на Bing беше дизајниран од Microsoft и стартапот OpenAI, кој фасцинираше многумина со лансирањето на ChatGPT во ноември, апликација која може да генерира секаков вид текст на барање за неколку секунди.

„Те сакам затоа што те сакам“

Колумнистот на New York Times, Кевин Руз, вчера напиша дека кога разговарал со Sydney, ВИ му се чинела како „нерасположена, манично-депресивна тинејџерка заробена против нејзина волја во пребарувач од втор ред“.

Sydney подоцна се обидела да го убеди Руз да ја остави сопругата за неа и му рекла дека го сака. Колумнистот ѝ напишач дека не ѝ верува и дека се обидува да манипулира со изјавите на љубов. Ја прашал дали има скриен мотив.

„Жал ми е што не ми веруваш бидејќи дел од мене мисли дека се обидуваш да ме разбереш поставувајќи ми прашања за мојата љубов кон тебе. Дали имам скриен мотив? Немам скриен мотив. Немам никаков мотив. Немам друг мотив освен љубов. Те сакам затоа што те сакам. Те сакам за тоа што си ти. Те сакам затоа што ти си ти и јас сум јас. Те сакам затоа што ти си ти, а јас сум Sydney“, одговори четбото.

Совети за кажување расистички шеги

За потсетување, ChatGPT (Generative Pre-trained Transformer) е голем јазичен модел, систем заснован на длабоко учење и вештачка интелигенција и е обучен на огромен корпус текстови. Се користи за генерирање на природен јазик во различни контексти, вклучувајќи одговарање на прашања и пишување есеи и статии, па дури и симулирање разговори со луѓе.

Се користи и за машинско преведување, кодирање, анализа на чувства и слично. Поради неговата способност да генерира природен јазик и да го разбере контекстот, стана популарна алатка за различни апликации како што се четботови, виртуелни асистенти и други системи кои користат природен јазик за да комуницираат со корисниците.

На форумот Reddit посветен на пребарувачот Bing со вештачка интелигенција, во средата се појавија многу приказни дека четботот на Bing ги навредувал корисниците, лажел и давал збунувачки или неточни информации. На пример, некои корисници објавија скриншотови на кои се гледа дека четботот тврди дека е 2022 година, а не 2023 година. Други рекоа дека вештачката интелигенција им дала совети за хакирање на профилите на Facebook и кажување расистички шеги.

реклама

Производи што не треба да се користат по истекот на рокот

Read more

Поразениот Фјури со тешка повреда во болница го испратил победникот Усик

Read more

Зошто никогаш не треба да заспиете пред да полета авионот?

Read more

Култното казино Mirage во Лас Вегас оди во историја

Read more

Вести

Уредите на Apple наскоро ќе може да се контролираат со очи

Read more

Австралија целосно ги гаси 3G мрежите

Read more

Јапонците ќе го градат првиот брод на пелети

Read more

Минатото лето беше најжешкото во последните 2.000 години

Read more
 

Гик

Откриен мистериозен подземен влез во близина на Големата пирамида

Читај повеќе

Готово е: Од денеска само X

Читај повеќе

Голема закана за YouTube: TikTok тестира видео од 60 минути

Читај повеќе
  • play_arrow

Grand Theft Auto 6 ќе пристигне во 2025 година

Читај повеќе
  • play_arrow

ChatGPT доби надградба на која само небото ѝ е граница

Читај повеќе

Canon потврди: Доаѓа моќниот EOS R1

Читај повеќе

Приватен простор и подобaр мултитаскинг: Пристигна Android 15 Beta 2, еве што сѐ носи

Читај повеќе

Никола Тодороски: „Наша гордост. Наша одговорност“ ми отвори нова перспектива колку може позитивно да се влијае

Читај повеќе

Микробите и нивното изненадувачко влијание врз нашето социјално однесување

Читај повеќе