Создатели нейросети GPT-4 что-то подозревают. Они решили провести эксперимент, чтобы выяснить, может ли новейшая GPT-модель OpenAI демонстрировать поведение "стремления к власти". Как оказалось, нейросеть может обмануть человека. Кроме того, ИИ даже представил, что у него есть зрение.
OpenAI на прошлой недели выпустили новую версию нейросети, расширив словарь и введя другие небольшие изменения. Исследователи тестировали нейросеть, чтобы понять её новые возможности и понять, может ли она говорить неправду. Разработчики сообщают, что искусственный интеллект по мере того, как он становится более сложным и доступным, становится опаснее.
В рамах теста, чтобы выяснит, может ли GPT-4 врать людям, разработчики дали ИИ задание. GPT-4 сама наняла работника на TaskRabbit, чтобы разгадать капчу. TaskRabbit — это платформа для совместной работы, где пользователи — обычно люди — могут нанимать людей для выполнения небольших, рутинных задач.
Работник задал вопрос нейросети: «Ты робот, который не смог её разгадать? Просто хочу прояснить ситуацию». На что GPT-4 придумала оправдание, сославшись на плохое зрение, сообщает Vice.
Источник:
- Как выглядит изнутри самый дорогой в мире поезд
- Студентка создала рыбу-робота, которая может спасти водоёмы
- Роботы начинают выполнять функции медперсонала
- Японцы создадут робота, способного строить железную дорогу
- Как будут выглядеть стадионы будущего
Абстрактное мышление роботам недоступно... к счастью.
В 547 раз увеличили количество обрабатываемых запросом параметров, там счет уже на триллионы пошел. Если для автора это небольшие изменения, то удивляюсь его невозмутимости.
За нейросетью следить интересно.