Основатель Cardano выражает обеспокоенность по поводу «цензуры искусственного интеллекта»

Самые главные криптоновости в Телеграм-канале CryptoMoon, присоединяйтесь!👇

Cryptomoon Telegram


Как опытный аналитик в области искусственного интеллекта и технологий, я разделяю обеспокоенность Чарльза Хоскинсона по поводу потенциальной цензуры, создаваемой передовыми системами искусственного интеллекта. Возможность ограничить доступ к определенным знаниям посредством этих чат-ботов — мощный инструмент, поднимающий важные этические вопросы.


Как исследователь, изучающий пересечение технологий и общества, я наткнулся на последнюю точку зрения Чарльза Хоскинсона, которой он поделился на платформе социальных сетей X. В этом посте Хоскинсон выразил свои опасения по поводу обширных возможностей цензуры, предоставляемых искусственным интеллектом (ИИ).

По словам Хоскинсона, генеративный искусственный интеллект становится менее полезным из-за обучения выравниванию. 

Перспектива того, что некоторые знания могут оказаться недоступными для будущих поколений по усмотрению немногих избранных, вызывает у него явное беспокойство. Проще говоря, в сообщении в социальной сети он выразил обеспокоенность тем, что неизвестные лица, не несущие ответственности перед общественностью, будут решать, в какой информации отказано каждому растущему ребенку.

В запись в блоге Хоскинсона он включил два изображения, показывающие ответы, генерируемые моделью OpenAI GPT-40 и моделью Клода 3.5 Sonnet, когда им были представлены подсказки, связанные с построением фузора Фарнсворта.

Фузор Фарнсворта — это устройство, которое использует электрическое поле для нагрева ионов и создания экстремальных температур, необходимых для ядерного синтеза.

Как криптоинвестор и любопытный человек в мире технологий, я был заинтригован, когда GPT-40 от OpenAI предоставил мне полный список основных компонентов для строительства термоядерного реактора. Однако мое волнение утихло, когда в сонете 3.5 Клода неохотно поделились лишь смутными сведениями о фьюзорах Фарнсворта-Хирша, не предоставив конкретных инструкций о том, как их соединить.

Хоскинсона беспокоит то, что такое небольшое количество людей имеет право определять, к какой информации можно получить доступ через чат-ботов с искусственным интеллектом, что приводит к значительному несоответствию в доступных данных.

С момента резкого роста популярности ChatGPT OpenAI в конце 2022 года велись интенсивные дискуссии относительно границ цензуры, устанавливаемой искусственным интеллектом. Эти модели имеют смысл защищать пользователей от вредных материалов; однако определение того, что представляет собой вред, является неясным вопросом, вызывающим у некоторых опасения по поводу потенциального будущего, в котором ИИ будет подавлять информацию и обеспечивать соответствие на основе присущих ему предубеждений.

Смотрите также

2024-07-01 09:36