Nejnovější AI modely od Anthropicu a OpenAI byly navrženy k identifikaci bezpečnostních mezer v softwaru. Mohou tak pomoci odhalovat potenciálně nebezpečné chyby, kterých by se dalo jinak zneužít. A to je zároveň i negativní stránka uvedených technologií, pokud by se dostaly do nesprávných rukou.

OpenAI na svém blogu uvedla, že zpočátku bude sdílet nejnovější model umělé inteligence se stovkami vybraných organizací, v nadcházejících týdnech je pak pravděpodobně rozšíří na tisíce.

„Naším cílem je zpřístupnit tyto nástroje co nejvíce, ale zároveň zabránit zneužití. Hlavní je dostat je k malým i velkým firmám, které jsou zodpovědné za ochranu kritické infrastruktury,“ cituje z prohlášení New York Times.

Společnost Anthropic, která představila model Mythos v minulém týdnu, rovnou při jeho spouštění omezila vydání na přibližně 40 společností a organizací – patří mezi ně například technologičtí giganti Apple, Amazon, Microsoft, Google či Linus Foundation a stejně jako u OpenAI i důležití provozovatelé kritické infrastruktury.

Mnozí odborníci z řad bezpečnostních expertů varují před narůstajícími „schopnostmi“ modelů umělé inteligence, které jsou stále propracovanější i nebezpečnější zároveň. Bohužel se ale ani oni sami nedokážou shodnout, jak s podobnými technologiemi zacházet.

Co se týče omezení nových modelů, mnozí s ním souhlasí, najde se ale i velké procento lidí, a to nejen z odborné scény, kteří avizované omezení přirovnávají k promyšlenému strategickému tahu. I proto, že podle mnohých nejsou „superschopnosti“ uváděných modelů nijak spolehlivě doloženy, uvádí server Guardian.

Anketa

Je správné, aby pokročilé modely AI nebyly přístupné pro všechny?

Ano, v nesprávných rukou mohou být nebezpečné.

Ano, nebezpečné jsou ale podle mě všechny modely.

Celkem
hlasovalo
143
čtenářů.