Как опытный аналитик в области искусственного интеллекта и технологий, я разделяю обеспокоенность Чарльза Хоскинсона по поводу потенциальной цензуры, создаваемой передовыми системами искусственного интеллекта. Возможность ограничить доступ к определенным знаниям посредством этих чат-ботов — мощный инструмент, поднимающий важные этические вопросы.
Как исследователь, изучающий пересечение технологий и общества, я наткнулся на последнюю точку зрения Чарльза Хоскинсона, которой он поделился на платформе социальных сетей X. В этом посте Хоскинсон выразил свои опасения по поводу обширных возможностей цензуры, предоставляемых искусственным интеллектом (ИИ).
По словам Хоскинсона, генеративный искусственный интеллект становится менее полезным из-за обучения выравниванию.
Перспектива того, что некоторые знания могут оказаться недоступными для будущих поколений по усмотрению немногих избранных, вызывает у него явное беспокойство. Проще говоря, в сообщении в социальной сети он выразил обеспокоенность тем, что неизвестные лица, не несущие ответственности перед общественностью, будут решать, в какой информации отказано каждому растущему ребенку.
В запись в блоге Хоскинсона он включил два изображения, показывающие ответы, генерируемые моделью OpenAI GPT-40 и моделью Клода 3.5 Sonnet, когда им были представлены подсказки, связанные с построением фузора Фарнсворта.
Фузор Фарнсворта — это устройство, которое использует электрическое поле для нагрева ионов и создания экстремальных температур, необходимых для ядерного синтеза.
Как криптоинвестор и любопытный человек в мире технологий, я был заинтригован, когда GPT-40 от OpenAI предоставил мне полный список основных компонентов для строительства термоядерного реактора. Однако мое волнение утихло, когда в сонете 3.5 Клода неохотно поделились лишь смутными сведениями о фьюзорах Фарнсворта-Хирша, не предоставив конкретных инструкций о том, как их соединить.
Хоскинсона беспокоит то, что такое небольшое количество людей имеет право определять, к какой информации можно получить доступ через чат-ботов с искусственным интеллектом, что приводит к значительному несоответствию в доступных данных.
С момента резкого роста популярности ChatGPT OpenAI в конце 2022 года велись интенсивные дискуссии относительно границ цензуры, устанавливаемой искусственным интеллектом. Эти модели имеют смысл защищать пользователей от вредных материалов; однако определение того, что представляет собой вред, является неясным вопросом, вызывающим у некоторых опасения по поводу потенциального будущего, в котором ИИ будет подавлять информацию и обеспечивать соответствие на основе присущих ему предубеждений.
Смотрите также
- Прогнозы криптовалюты FLOKI: информация о ценах на FLOKI
- Доллар к злотому: прогноз курса
- Прогнозы криптовалюты WIF: информация о ценах на dogwifhat
- Прогноз нефти
- Прогнозы криптовалюты DOGE: информация о ценах на Dogecoin
- Прогнозы криптовалюты BTC: информация о ценах на биткоин
- Прогнозы криптовалюты ZRO: информация о ценах на LayerZero
- Прогнозы криптовалюты SUI: информация о ценах на Sui
- Coinbase приветствует эту крупную криптовалюту-мем после листинга PEPE
- PEPE RSI предвещает неизбежный разворот
2024-07-01 09:36