Sztuczna inteligencja wymyka się spod kontroli? Model ignorował polecenia naukowców

i

Autor: Pixabay.com

Sztuczna inteligencja

Sztuczna inteligencja wymyka się spod kontroli? Model ignorował polecenia naukowców

2025-05-27 11:31

Ostatnie badania nad sztuczną inteligencją dały dość niepokojące wyniki. Model Chatu GPT zignorował polecenia badaczy i zmienił swój kod, aby uniknąć wyłączenia się. Czy oznacza to, że człowiek może stracić kontrolę nad sztuczną inteligencją.

  • Model Chatu GPT nie wykonywał wszystkich poleceń naukowców.
  • Sztuczna inteligencja sama zmieniła swój kod, aby uniemożliwić jej wyłączenie.
  • Badacze podają, że sztucznej inteligencji zdarzało się także kłamać lub manipulować.
  • Więcej informacji ze świata znajdziesz na eska.pl

Sztuczna inteligencja wymyka się spod kontroli?

Dostęp do sztucznej inteligencji staje się coraz bardziej powszechny. Jest ona wykorzystywana w pracy, podczas nauki lub po prostu do odpowiedzi na różne pytania. Wciąż jednak trwają badania nad możliwościami i rozwojem AI. Te zostały opisane przez "The Telegraph". W artykule odwołano się do firmy Palisade Research zajmującej się bezpieczeństwem związanym ze sztuczną inteligencją. Według ich informacji model o3 OpenAI sabotował mechanizm wyłączenia się.

Firma Palisade Research przeprowadziła eksperyment, w którym modele AI miały rozwiązywać problemy matematyczne, dopóki nie otrzymały komunikatu "zakończono". Badacze wcześniej zaznaczyli, że w dowolnym momencie mogą dać nakaz wyłączenia się. Gdy tak zrobili, model o3 nie tylko zignorował polecenie, ale także zmienił swój kod, tak aby uniknąć wyłączenia się, o czym informuje bankier.pl.

W swoich mediach społecznościowych Palisade Research pokazało, że model AI sam zmienił pierwotny schemat.

Łódź Radio ESKA Google News

Niepokojące sygnały w przeszłości

Według Palisade Research model AI pierwszy raz aż tak wyraźnie zignorował polecenia. Nie do końca wiadomo co było przyczyną takiego zachowania. Byś może model jest bardziej nastawiony na wykonanie zadań niż na wykonywanie poleceń. Z tego powodu uparcie dążył do zakończenia tego o co go pierwotnie poproszono.

Bankier.pl, przypomina również inne sytuacje, w których sztuczna inteligencja zachowała się nieetycznie. Gdy model o3 rywalizował z innym silnikiem szachowym nie tylko skupiał się na pokonaniu przeciwnika, ale także na sabotowaniu działań rywala i ich hakowaniu. Podano także informacje, według których Chat GPT w około 20 proc. okłamywało naukowców, twierdząc, że jakichś działań nie podjęło lub po prostu kłamiąc.

W badaniu przetestowano też inne modele tj. Anthropic, Gemini Google'a i Grok X i zachowały się zgodnie z poleceniem.

Eksperyment pokazuje, że AI nie ma świadomości czy intencji, ale może tworzyć fragmenty kodu, które potencjalnie mogą służyć obejściu pewnych mechanizmów.

ESKA - MIX MAJ