Ilya Sutskever, znany i ceniony badacz AI, współzałożyciel OpenAI i były (do 15 maja) szef naukowców w tej firmie, ogłosił utworzenie nowej firmy o nazwie Safe Superintelligence Inc (SSI).
Główne punkty jego nowej firmy to:
Celem SSI jest stworzenie bezpiecznej superinteligencji (ASI - Artificial Superintelligence), co firma uważa za najważniejszy problem techniczny naszych czasów.
SSI skupia się wyłącznie na rozwoju ASI, bez żadnych pośrednich produktów czy celów komercyjnych.
Firma ma biura w Palo Alto i Tel Awiwie, z zamiarem rekrutacji najlepszych inżynierów i badaczy.
Współzałożycielami są Ilya Sutskever, Daniel Gross (inwestor i były lider AI w Apple) oraz Daniel Levy (były pracownik OpenAI).
SSI planuje rozwijać możliwości AI tak szybko, jak to możliwe, jednocześnie dbając o to, by bezpieczeństwo zawsze wyprzedzało rozwój.
Firma nie ujawnia szczegółów finansowania ani konkretnych inwestorów.
Sutskever twierdzi, że superinteligencja jest w zasięgu, mimo że niektórzy eksperci uważają, że postęp AI zwalnia.
SSI podkreśla potrzebę wbudowania bezpieczeństwa w system AI poprzez przełomy inżynieryjne, a nie tylko zewnętrzne zabezpieczenia.
Firma ma ambitne cele, ale niektórzy mogą być sceptyczni co do możliwości stworzenia ASI przez mały zespół w krótkim czasie.
Więcej o firmie: https://ssi.inc/
Polecane wystąpienie na TED: • The Exciting, Perilous Journey Toward...
#AI #superinteligencja #AGI #sutskever #openai
Смотрите видео Główny naukowiec openAI tworzy firmę, której jedynym celem jest Superinteligencja (bezpieczna)! онлайн без регистрации, длительностью часов минут секунд в хорошем качестве. Это видео добавил пользователь Samuraj Programowania (SamurAI Bartek) 25 Июнь 2024, не забудьте поделиться им ссылкой с друзьями и знакомыми, на нашем сайте его посмотрели 1,184 раз и оно понравилось 42 людям.