Macie już dość płynącej zewsząd mowy nienawiści? Nie Wy jedyni! Okazuje się, że skutek uboczny cyfryzacji zdenerwował nawet osoby, które mogą mieć realny wpływ na cenzurowanie niektórych nieodpowiednich treści. Czy dzięki temu postało rozwiązanie, z którego wkrótce będziemy korzystać?
Bloker mowy nienawiści
Eksperci ze znanej firmy Intel, we współpracy z ekipą Spirit AI opracowali aplikację o nazwie Bleep. Bleep używa sztucznej inteligencji w celu cenzurowani wypowiedzi klasyfikowanych jako mowa nienawiści. Zasada działania aplikacji jest prosta. W panelu odhaczamy konkretne słowa lub tematy oraz ustawiamy filtr. Na tej podstawie aplikacja ukrywa fragmenty, które uznaje za nieodpowiednie i cenzuruje je sygnałem dźwiękowym podobnym do buczenia, które popularne było kiedyś w klipach czy fragmentach dźwiękowych zawierających słynne „niecenzuralne teksty”.
Inspiracją do powstania aplikacji były badania, które pokazują, z 22% graczy sieciowych rezygnuje z gry na stałe, bo spotyka się ze skierowaną w swoją stronę mową nienawiści. Problem w tym, że coś, co miało być rewolucyjnym wynalazkiem, wywołało kontrowersje ledwie po odpaleniu wersji beta aplikacji.
this is just hands down the funniest image ive seen in a while. intel is making automated bleep software and im howling at the backend pic.twitter.com/w4fRq9qYIX
— bea (@beesmygod_) April 7, 2021
O co chodzi? Oczywiście o punkt widzenia. Dla wielu osób blokowane teksty nie mają znamion rasizmu czy ksenofobii lub seksizmu. Punkt widzenia zależy, jak zwykle, od punktu siedzenia.
Kontrowersje budzi też interface aplikacji, która umożliwia całkowite lub częściowe blokowanie niektórych tematów, lub słów. Częściowa mowa nienawiści lub słowo półcenzuralne? Pierwsze słyszymy! Intel mówi, że wszystko jest kwestią interpretacji i w ten sposób daje argumenty osobom, które realnie mowy nienawiści używają.