Meta ostrzega: nasz chatbot może nie wiedzieć, że nim jest
Ostatnia aktualizacja 20 sierpnia, 2022
Wiele firm ma swoje chatboty, m.in. IKEA, InPost czy Facebook. Meta, właściciel giganta społecznościowego, informuje, że najnowsza wersja jego chatbota może nie wiedzieć, że nim jest. Co to oznacza dla użytkowników? Czy chatbot będzie “świadomy”?
- Meta opracowała chatbota, który może nie wiedzieć, że jest algorytmem wspomaganym przez AI
- Bot może nas obrazić albo okłamać – warto na to uważać
- Jednocześnie firma ostrzega, że takie problemy mogą się pojawić i zaleca, aby np. nie prosić chatbota o porady medyczne czy prawne
- Najnowszy bot Mety to kolejny krok w stronę rozwiniętej AI, która zyska coś na wzór ludzkiej świadomości
Meta udostępniła do testów chatbota BlenderBeta 3. Ma on wbudowane “przepisy bezpieczeństwa”, które – jak twierdzi firma – zmniejszają obraźliwe reakcje nawet o 90%. Mimo to zdarza się, że bot kłamie albo jest niegrzeczny.
BlenderBot 3 na razie udostępniono dla użytkowników ze Stanów Zjednoczonych, ale wkrótce chat będzie dostępny w innych regionach.
Sprawdź: Refaktoring kodu
Bot przeszukuje internet, aby następnie rozmawiać na niemal dowolny temat. Został zaprojektowany w taki sposób, aby uczyć się też nowych umiejętności i poprawiać te dotychczasowe. Stale więc szkoli się m.in. poprzez naturalne rozmowy oraz informacje zwrotne od ludzi.
Co to chatbot?
Chatbot odpowiada na najczęściej zadawane pytania. W przypadku narzędzia Mety mamy jednak do czynienia z czymś bardziej zaawansowanym. BlenderBot 3 wykorzystuje nowe techniki, które umożliwiają uczenie się od przeróżnych nauczycieli. Są nimi ludzie i internet.
Jednocześnie chatbot ma w sobie odpowiednie zabezpieczenia. Te są potrzebne, aby przypadkiem nie zaczął on obrażać ludzi czy też uczyć się odpowiedzi i zachowań od osób, które próbują oszukać jego model. Dzięki temu bot nie zacznie później serwować nieprzydatnych odpowiedzi albo wchodzić w toksyczne relacje. Meta tłumaczy, że prowadziła odpowiednie badania, aby nauczyć chatbota rozróżniać w automatyczny sposób pomocne wskazówki od trollowania.
Osoby zainteresowane chatbotami i sztuczną inteligencją z pewnością pamiętają chatbota Microsoftu z 2016 r. Był to Tay.ai, który nauczył się od ludzi wypowiadać okropne, nieprzyjemne i rasistowskie komentarze.
Meta ostrzega, biorąc pod uwagę wcześniejsze doświadczenia, że jej chatbot również nie jest idealny. “Może wypowiadać złe rzeczy” – informuje firma na blogu. “Pomimo całej pracy, którą wykonaliśmy, zdajemy sobie sprawę, że BlenderBot wciąż może mówić rzeczy, z których nie będziemy dumni”.
Bot cię obraził? Zgłoś to dostawcy
Meta zachęca jednocześnie użytkowników, aby zgłaszali wszelkie problemy – zwłaszcza gdy chatbot powie coś obraźliwego. Ponadto firma ostrzega, że bot może wydawać fałszywe lub sprzeczne oświadczenia. Jak tłumaczy właściciel Facebooka, “chatbot zapomina czasami, że jest botem i doświadcza czegoś na kształt halucynacji, gdy pewnie mówi użytkownikowi rzeczy, które nie są prawdą”.
Zobacz: Ile zarabia Python Developer?
Z tego powodu, przynajmniej póki co, nie powinniśmy polegać na botach w zakresie informacji takich jak porady medyczne, prawne czy finansowe.
Postępy w tworzeniu chatbotów są bardzo zauważalne. Widać to nie tylko po stronie Mety, ale też Google’a. Wyszukiwarkowy gigant dąży do poprawy konwersacyjnej AI poprzez LaMDA (Language Models for Dialog Applications – modele językowe dla aplikacji dialogowych). To technologia zaprezentowana przez Google w 2021 r. Firmie zależy, aby chatboty angażowały się w swobodne rozmowy.
LaMDA znalazło się w centrum uwagi w czerwcu br. po tym, gdy Blake Lemoine, inżynier Google’a, opublikował dokument pod hasłem “Czy LaMDA ma świadomość?”.
Sugerował, że bot może być świadomy, co nie spodobało się kierownictwu firmy – inżynier stracił pracę.