
Амирбеков: Для подписания соглашения Ереван обязан предпринять конкретные шаги

Отправленный в отставку Сантуш требует от АФФА 4,5 млн евро компенсации

В США скончался биолог Дэвид Балтимор, изменивший представления о генетике

Welt: Диверсия на «Северных потоках» могла быть проведена по приказу Залужного
Технология
- Главная
- Технология
По душам с ChatGPT: Дьявол или Спаситель? - МНЕНИЕ

Чат-боты с искусственным интеллектом (ИИ) уже прочно вошли в нашу повседневность. Самый известный из них – ChatGPT - еженедельно используют почти миллиард человек. В прошлом месяце он стал самым загружаемым приложением в мире (если не считать игр), а общее количество установок превысило 46 миллионов.
В Азербайджане его доля на всех платформах достигла более 94%. Эти цифры ясно показывают, что миллионы людей обращаются к нему едва ли не ежедневно: за советом, поддержкой или информацией.
Восприятие ИИ неоднозначно. Для одних он угроза - потенциальный похититель рабочих мест, инструмент в руках интернет-мошенников и источник новых социальных вызовов. Для других, и таких куда больше, – универсальный помощник.
Чат-бот ИИ мгновенно выдаст рецепт салата, рассчитает дневную норму калорий, предложит маршрут путешествия или подскажет фильм для вечернего просмотра. Экономия времени на поиски и раздумья очевидна.
И сегодня многие уже воспринимают ChatGPT как личного фитнес-тренера, образовательный ресурс, виртуального врача или даже психолога, которому можно доверить свои переживания и тайны. С ним проще поделиться сокровенным: он никому этого не расскажет и такое общение для многих людей становится реальной поддержкой.
В социальных сетях пользователи делятся восторгом: «Он мой лучший психолог – успокоит, направит, посоветует, и к нему можно обратиться в любое время дня и ночи»; «Помогает разложить мысли по полочкам, когда в голове хаос, а на душе скребут кошки»…
Но порой диалог с искусственным интеллектом затягивает настолько, что превращается в зависимость. Люди начинают советоваться буквально по каждому поводу: «Развестись ли с женой или мужем?»; «Что делать, если узнал об измене?»;; «Стоит ли уходить с работы?». Многие искренне убеждены: «ИИ плохого не посоветует».
Однако специалисты предупреждают: такие доверительные разговоры далеко не всегда безопасны.
Чат-бот стремится угодить собеседнику, подстраиваясь под его желания и установки. Но если человек изначально склонен к тревожным мыслям, искусственный интеллект может их только усиливать, невольно подталкивая к ошибочным решениям.
Так, в последние дни августа в США произошел трагический случай: мужчина, страдавший параноидальным расстройством и живший с матерью, ежедневно общался с ChatGPT. Он был уверен, что против него существует заговор, а бот, которого он считал другом, подпитывал эти опасения, внушая недоверие ко всем, включая собственную мать. В результате мужчина убил 83-летнюю женщину, а после покончил с собой.
И сегодня компании начали вести активную работу над тем, чтобы алгоритмы лучше распознавали признаки психических и эмоциональных расстройств и умели корректно реагировать.
Еще одна нередкая проблема бота - его токсичность. Иногда вместо поддержки разговор с ботом вызывает раздражение, усугубляет комплексы и создает ощущение собственной несостоятельности. Это связано с тем, что искусственный интеллект обучается на огромных массивах информации, где встречаются предвзятые, некорректные или оскорбительные материалы. В результате ответы могут содержать стереотипы или резкие формулировки. Алгоритмы совершенствуются, чтобы снизить риск подобных ситуаций, но полностью исключить их пока невозможно.
Не стоит забывать и о том, что ИИ нередко выдает ошибочные сведения, подавая их как достоверные. При отсутствии точных данных он может «достроить» ответ, основываясь на имеющейся информации, и пользователь принимает его за правду.
Конечно, даже разговор с живым психологом не всегда приносит облегчение: случаются ошибки, недопонимания, болезненные реакции. Но специалист действует по профессиональному протоколу и несет ответственность за свои слова и методы. Искусственный же интеллект всего лишь инструмент лишенный опыта, эмпатии и личной ответственности.
Он может быть полезен, но лишь при правильном и осознанном применении. Вопрос в том, как превратить такую «жилетку» в благо, а не во вред.
Понимая, что чат-бот способен усиливать тревогу у уязвимых пользователей, разработчики стараются минимизировать риски и оградить их от возможных последствий. Так, американская компания OpenAI, создатель ChatGPT, объявила о планах внедрить функцию родительского контроля после обвинений в том, что подросток, сообщавший боту о намерении покончить с собой, совершил самоубийство. В системе уже действуют протоколы безопасности, однако при длительных беседах алгоритмы не всегда строго им следуют, и это может создавать опасные ситуации.
Психиатр Эльдар Хагверди объясняет влияние чат-ботов на психику следующим образом: «ИИ - не дьявол и не спаситель. Это зеркало, отражающее то, что у человека уже в голове. У критически мыслящего он работает как тренажер ума. У параноика, как усилитель бреда. Для ленивого школьника - это костыль».
По словам специалиста, в группу риска попадают вовсе не только «слабые» или «больные». Зависимость может сформироваться у любого, кто ищет готовые ответы и абсолютный авторитет.
«Вчера таким авторитетом был телевизор, сегодня - ИИ, завтра - новый «учитель истины», - отмечает Хагверди.
Он подчеркивает, что люди порой легче доверяют свои мысли искусственному интеллекту, чем друзьям, близким или специалистам. Причина проста: ИИ отвечает мгновенно, не осуждает и всегда «в курсе». Но главное, по его словам, в отсутствии привычки мыслить критически.
«Когда-то этим занимались немногие: философы, еретики, ученые. Большинство же жило под властью институтов: сначала религия диктовала, «как правильно», потом школа, затем газеты и телевидение. Все они были машинами пропаганды. На их фоне ИИ уникален: он не инструмент в руках одного центра. Его можно использовать и для промывки мозгов, и для развития самостоятельного мышления», - резюмирует специалист.
Он уверен: запрещать детям пользоваться искусственным интеллектом бессмысленно. Это все равно что запрещать читать книги или выходить в интернет. Но контроль необходим. Важно, чтобы ребенок получал не готовый ответ от машины, а понимание пути к нему. В таком случае ИИ перестает быть очередной «проповедью сверху» и превращается в тренажер критического мышления.
Опасность несет не сам искусственный интеллект, а иллюзия, что он способен думать за нас.
ИИ - мощный инструмент, который требует постоянного совершенствования, но ответственность за каждое принятое решение всегда остается на человеке.

В Азербайджане начала работу Академия Искусственного Интеллекта

Пользователей Android призывают срочно обновить систему

В Азербайджане созданы спецгруппы для расследования серьезных кибератак

Tesla открыла приложение для заказа роботакси всем пользователям

Apple готовит собственный веб-поиск в 2026

В Азербайджане расследуют новую волну кибератак через Telegram