Firmy technologiczne i AI podpisują pakt na rzecz zwalczania deepfake’ów związanych z wyborami

Microsoft, Meta, Google, Amazon, IBM, Adobe i Chip Designer Arm podpisały umowę. Do grupy dołączyły także start-upy zajmujące się sztuczną inteligencją OpenAI, Anthropic i Stability AI, a także firmy z branży mediów społecznościowych, takie jak Snap, TikTok i X.

Platformy technologiczne przygotowują się do wielkiego roku wyborów na całym świecie, które dotkną ponad cztery miliardy ludzi w ponad 40 krajach. Według danych firmy Clarity zajmującej się uczeniem maszynowym wzrost liczby treści generowanych przez sztuczną inteligencję wzbudził poważne obawy związane z dezinformacją związaną z wyborami.

Dezinformacja stanowi poważny problem podczas wyborów od czasu kampanii prezydenckiej w 2016 r., kiedy rosyjscy aktorzy znaleźli tanie i łatwe sposoby rozpowszechniania fałszywych treści w mediach społecznościowych. Obecnie prawodawcy są coraz bardziej zaniepokojeni szybkim rozwojem sztucznej inteligencji.

Josh Becker, senator stanu Demokratów z Kalifornii, powiedział w wywiadzie, że istnieją „poważne obawy co do tego, w jaki sposób sztuczna inteligencja może zostać wykorzystana do wprowadzenia wyborców w błąd. To zachęcające, że niektóre firmy dochodzą do rozmów, ale w tej chwili nie widzę wystarczająco dużo szczegółowo, dlatego będziemy potrzebować prawodawstwa wyznaczającego jasne standardy”.

Tymczasem technologie wykrywania i znakowania wodnego stosowane do identyfikacji deepfakes nie rozwijają się wystarczająco szybko, aby nadążyć. Na razie firmy są zgodne co do standardów technicznych i mechanizmów wykrywania.

Przed nimi długa droga, aby skutecznie walczyć z tym wielowarstwowym problemem. Wyświetlane są na przykład usługi rozpoznawania tekstu generowane przez sztuczną inteligencję, takie jak artykuły Ujawnij uprzedzenia w porównaniu z obcokrajowcami mówiącymi po angielsku. W przypadku zdjęć i filmów nie jest to takie proste.

Chociaż platformy stojące za obrazami i filmami generowanymi przez sztuczną inteligencję zgadzają się na nagrywanie niewidocznych znaków wodnych i niektórych form metadanych, te środki bezpieczeństwa muszą jeszcze zostać wykorzystane. Zrzut ekranu może czasami oszukać wykrywacz.

READ  Taylor Swift publikuje zwiastun wideo „Fortnite” z Post Malonem: Obejrzyj

Ponadto niewidzialne sygnały, które niektóre firmy uwzględniają w obrazach generowanych przez sztuczną inteligencję, nie są jeszcze dostępne dla wielu generatorów audio i wideo.

Wiadomość o transakcji pojawiła się dzień po tym, jak twórca ChatGPT OpenAI ogłosił Sora, swój nowy model wideo generowanego przez sztuczną inteligencję. Sora działa podobnie do DALL-E, narzędzia AI do generowania obrazów OpenAI. Kiedy użytkownik wpisze żądaną scenę, Sora wyświetli klip wideo w wysokiej rozdzielczości. Sora może tworzyć klipy wideo inspirowane nieruchomymi obrazami, rozszerzać istniejące filmy lub uzupełniać brakujące klatki.

Firmy uczestniczące w porozumieniu zgodziły się na osiem zobowiązań wysokiego szczebla, w tym ocenę ryzyka modeli, „dążenie do wykrycia” i zajęcie się dystrybucją takich treści w swoich witrynach oraz zapewnienie społeczeństwu przejrzystości tych procesów. Podobnie jak większość dobrowolnych obowiązków w branży technologicznej i poza nią, jak zauważono w komunikacie, obowiązki te mają zastosowanie tylko „jeśli odnoszą się do usług świadczonych przez każdą organizację”.

„Demokracja zależy od bezpiecznych wyborów” – stwierdził w oświadczeniu Kent Walker, szef spraw globalnych w Google. Porozumienie stanowi wysiłek branży mający na celu uwzględnienie „generowanej przez sztuczną inteligencję dezinformacji wyborczej, która podważa zaufanie”.

Christina Montgomery, dyrektor IBM ds. prywatności i zaufania, stwierdziła w komunikacie, że ten kluczowy rok wyborczy „wymaga konkretnych, wspólnych działań w celu ochrony ludzi i społeczności przed zwiększonym ryzykiem związanym ze zwodniczymi treściami generowanymi przez sztuczną inteligencję”.

Widzieć: OpenAI publikuje Sorę

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *