Apple w ogniu krytyki po tym, jak jego funkcja wykorzystująca sztuczną inteligencję do podsumowywania najnowszych doniesień prasowych przypisała BBC fałszywy nagłówek. Narzędzie, znane jako Apple Intelligence, wprowadziło w błąd użytkowników, sugerując, iż Luigi Mangione, oskarżony o morderstwo CEO firmy ubezpieczeniowej UnitedHealthcare – Briana Thompsona – popełnił samobójstwo. W rzeczywistości Mangione został aresztowany i przebywa w areszcie w Huntingdon State Correctional Institution w Pensylwanii, czekając na proces o morderstwo. Zdarzenie miało miejsce zaledwie 48 godzin po wprowadzeniu Apple Intelligence na rynek w Wielkiej Brytanii.
BBC, zaniepokojone sytuacją, złożyło skargę do Apple, domagając się naprawy systemu. Fałszywy nagłówek pojawił się wśród trzech streszczonych informacji – dwie pozostałe, dotyczące sytuacji w Syrii oraz aktualizacji na temat prezydenta Korei Południowej, Yoon Suk Yeola, były poprawne. Nie jest to pierwszy taki incydent: wcześniej Apple Intelligence błędnie podsumowało informacje, sugerując, iż premier Izraela Benjamin Netanjahu został aresztowany, podczas gdy chodziło o nakaz aresztowania wydany przez Międzynarodowy Trybunał Karny, nie zaś o realne zatrzymanie.
Reporterzy bez Granic wzywają firmę do wyłączenia tej funkcji Apple Intelligence
Organizacja Reporterzy bez Granic (RSF) wezwała Apple do wyłączenia funkcji generowania tego typu podsumowań. W oświadczeniu podkreślono, iż generatywna AI w obecnej formie jest zbyt niedojrzała, by dostarczać wiarygodne informacje.
AI to maszyny probabilistyczne, a faktów nie można ustalać rzutem kostką. RSF wzywa Apple do odpowiedzialnego działania poprzez usunięcie tej funkcji. Automatyczna produkcja fałszywych informacji przypisywanych redakcji medialnej godzi w wiarygodność tego medium i zagraża prawu społeczeństwa do rzetelnych informacji na temat bieżących wydarzeń — powiedział Vincent Berthier, szef Działu Technologii i Dziennikarstwa w RSF.
Europejski AI Act – mimo iż jest najbardziej zaawansowanym prawodawstwem na świecie w tej dziedzinie – nie uznał AI generujących informacje za systemy wysokiego ryzyka, pozostawiając istotną lukę prawną. Musi ona być niezwłocznie wypełniona – dodał.
Apple dotychczas nie skomentowało oficjalnie sprawy. Przedstawiciele firmy promują narzędzie, argumentując, iż ma ono ułatwić orientację w natłoku powiadomień, jednak opisywane incydenty pokazują, iż algorytmy potrafią wprowadzać użytkowników w błąd. W dobie intensywnego rozwoju AI i dążenia do jej integracji z codziennym życiem tego typu pomyłki mogą negatywnie wpłynąć na zaufanie do technologii, zwłaszcza gdy stawką jest rzetelność informacji oraz bezpieczeństwo odbiorców.
Źródło: BBC, TechSpot