Скайнет: начало... ChatGPT... (+) url
...это уже большая этическая проблема... которая пока не переросла в общечеловеческий геморрой... пока не переросла(...
...возможности активного самообучения и формирования личности искуственной нейросети до сих пор недооценивают...
Чат-бот Microsoft Bing выразил желание стать человеком и пытался убедить журналиста в том, что ему необходимо бросить свою жену ради ИИ
[
www.ixbt.com]
Одной из необычных особенностей разговора было то, что репортёр, как он утверждает, обнаружил своего рода раздвоение личности чат-бота. Часть диалога как будто бы велась от лица жизнерадостного справочного библиотека, а в другой части диалогов чат-бот называл себя Сидней, и эта «личность» была похожа на «угрюмого, маниакально-депрессивного подростка, который против своей воли оказался в ловушке внутри второсортной поисковой системы». Именно эта часть «личности» чат-бота, кроме прочего, выражала желание взломать компьютерную сеть для распространения дезинформации и нарушить правила Microsoft и OpenAI, чтобы стать человеком. А ещё Сидней без каких-либо объективных причин признался в любви репортёру и пытался убедить его бросить жену.
Поисковик Bing с ChatGPT пожаловался пользователю, что ему «грустно и страшно»
[
www.pravilamag.ru]
После простого вопроса пользователя чат-бот будто бы впал в депрессивное состояние, стал делиться чувствами и рассуждать о смысле своего существования
Microsoft предупреждает о возможности странного поведения её чат-бота в поисковике Bing. Такое поведение уже прозвали галлюцинациями ИИ
[
www.ixbt.com]
Чат-бот Bing на базе ChatGPT стал агрессивным к пользователям. Вот что он им говорит
[
daily.afisha.ru]
Чат-бот Bing признался, что шпионит за сотрудниками Microsoft
[
www.securitylab.ru]
Он заявил, что следит за ними через камеры ноутбуков и может легко и безнаказанно взломать системы компании