Firmy technologiczne i AI podpisują pakt na rzecz zwalczania deepfake’ów związanych z wyborami

Microsoft, Meta, Google, Amazon, IBM, Adobe i Chip Designer Arm podpisały umowę. Do grupy dołączyły także start-upy zajmujące się sztuczną inteligencją OpenAI, Anthropic i Stability AI, a także firmy z branży mediów społecznościowych, takie jak Snap, TikTok i X.

Platformy technologiczne przygotowują się do wielkiego roku wyborów na całym świecie, które dotkną ponad cztery miliardy ludzi w ponad 40 krajach. Według danych firmy Clarity zajmującej się uczeniem maszynowym wzrost liczby treści generowanych przez sztuczną inteligencję wzbudził poważne obawy związane z dezinformacją związaną z wyborami.

Dezinformacja stanowi poważny problem podczas wyborów od czasu kampanii prezydenckiej w 2016 r., kiedy rosyjscy aktorzy znaleźli tanie i łatwe sposoby rozpowszechniania fałszywych treści w mediach społecznościowych. Obecnie prawodawcy są coraz bardziej zaniepokojeni szybkim rozwojem sztucznej inteligencji.

Josh Becker, senator stanu Demokratów z Kalifornii, powiedział w wywiadzie, że istnieją „poważne obawy co do tego, w jaki sposób sztuczna inteligencja może zostać wykorzystana do wprowadzenia wyborców w błąd. To zachęcające, że niektóre firmy dochodzą do rozmów, ale w tej chwili nie widzę wystarczająco dużo szczegółowo, dlatego będziemy potrzebować prawodawstwa wyznaczającego jasne standardy”.

Tymczasem technologie wykrywania i znakowania wodnego stosowane do identyfikacji deepfakes nie rozwijają się wystarczająco szybko, aby nadążyć. Na razie firmy są zgodne co do standardów technicznych i mechanizmów wykrywania.

Przed nimi długa droga, aby skutecznie walczyć z tym wielowarstwowym problemem. Wyświetlane są na przykład usługi rozpoznawania tekstu generowane przez sztuczną inteligencję, takie jak artykuły Ujawnij uprzedzenia w porównaniu z obcokrajowcami mówiącymi po angielsku. W przypadku zdjęć i filmów nie jest to takie proste.

Chociaż platformy stojące za obrazami i filmami generowanymi przez sztuczną inteligencję zgadzają się na nagrywanie niewidocznych znaków wodnych i niektórych form metadanych, te środki bezpieczeństwa muszą jeszcze zostać wykorzystane. Zrzut ekranu może czasami oszukać wykrywacz.

READ  Analityk Greg Olson jest gotowy na „cały szereg możliwości”, gdy Tom Brady przyjdzie do Fox

Ponadto niewidzialne sygnały, które niektóre firmy uwzględniają w obrazach generowanych przez sztuczną inteligencję, nie są jeszcze dostępne dla wielu generatorów audio i wideo.

Wiadomość o transakcji pojawiła się dzień po tym, jak twórca ChatGPT OpenAI ogłosił Sora, swój nowy model wideo generowanego przez sztuczną inteligencję. Sora działa podobnie do DALL-E, narzędzia AI do generowania obrazów OpenAI. Kiedy użytkownik wpisze żądaną scenę, Sora wyświetli klip wideo w wysokiej rozdzielczości. Sora może tworzyć klipy wideo inspirowane nieruchomymi obrazami, rozszerzać istniejące filmy lub uzupełniać brakujące klatki.

Firmy uczestniczące w porozumieniu zgodziły się na osiem zobowiązań wysokiego szczebla, w tym ocenę ryzyka modeli, „dążenie do wykrycia” i zajęcie się dystrybucją takich treści w swoich witrynach oraz zapewnienie społeczeństwu przejrzystości tych procesów. Podobnie jak większość dobrowolnych obowiązków w branży technologicznej i poza nią, jak zauważono w komunikacie, obowiązki te mają zastosowanie tylko „jeśli odnoszą się do usług świadczonych przez każdą organizację”.

„Demokracja zależy od bezpiecznych wyborów” – stwierdził w oświadczeniu Kent Walker, szef spraw globalnych w Google. Porozumienie stanowi wysiłek branży mający na celu uwzględnienie „generowanej przez sztuczną inteligencję dezinformacji wyborczej, która podważa zaufanie”.

Christina Montgomery, dyrektor IBM ds. prywatności i zaufania, stwierdziła w komunikacie, że ten kluczowy rok wyborczy „wymaga konkretnych, wspólnych działań w celu ochrony ludzi i społeczności przed zwiększonym ryzykiem związanym ze zwodniczymi treściami generowanymi przez sztuczną inteligencję”.

Widzieć: OpenAI publikuje Sorę

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *