Как опытный аналитик в области искусственного интеллекта и технологий, я разделяю обеспокоенность Чарльза Хоскинсона по поводу потенциальной цензуры, создаваемой передовыми системами искусственного интеллекта. Возможность ограничить доступ к определенным знаниям посредством этих чат-ботов — мощный инструмент, поднимающий важные этические вопросы.
Как исследователь, изучающий пересечение технологий и общества, я наткнулся на последнюю точку зрения Чарльза Хоскинсона, которой он поделился на платформе социальных сетей X. В этом посте Хоскинсон выразил свои опасения по поводу обширных возможностей цензуры, предоставляемых искусственным интеллектом (ИИ).
По словам Хоскинсона, генеративный искусственный интеллект становится менее полезным из-за обучения выравниванию.
Перспектива того, что некоторые знания могут оказаться недоступными для будущих поколений по усмотрению немногих избранных, вызывает у него явное беспокойство. Проще говоря, в сообщении в социальной сети он выразил обеспокоенность тем, что неизвестные лица, не несущие ответственности перед общественностью, будут решать, в какой информации отказано каждому растущему ребенку.
В запись в блоге Хоскинсона он включил два изображения, показывающие ответы, генерируемые моделью OpenAI GPT-40 и моделью Клода 3.5 Sonnet, когда им были представлены подсказки, связанные с построением фузора Фарнсворта.
Фузор Фарнсворта — это устройство, которое использует электрическое поле для нагрева ионов и создания экстремальных температур, необходимых для ядерного синтеза.
Как криптоинвестор и любопытный человек в мире технологий, я был заинтригован, когда GPT-40 от OpenAI предоставил мне полный список основных компонентов для строительства термоядерного реактора. Однако мое волнение утихло, когда в сонете 3.5 Клода неохотно поделились лишь смутными сведениями о фьюзорах Фарнсворта-Хирша, не предоставив конкретных инструкций о том, как их соединить.
Хоскинсона беспокоит то, что такое небольшое количество людей имеет право определять, к какой информации можно получить доступ через чат-ботов с искусственным интеллектом, что приводит к значительному несоответствию в доступных данных.
С момента резкого роста популярности ChatGPT OpenAI в конце 2022 года велись интенсивные дискуссии относительно границ цензуры, устанавливаемой искусственным интеллектом. Эти модели имеют смысл защищать пользователей от вредных материалов; однако определение того, что представляет собой вред, является неясным вопросом, вызывающим у некоторых опасения по поводу потенциального будущего, в котором ИИ будет подавлять информацию и обеспечивать соответствие на основе присущих ему предубеждений.
Смотрите также
- Прогноз нефти
- Прогнозы криптовалюты WIF: информация о ценах на dogwifhat
- Прогнозы криптовалюты NOT: информация о ценах на NOT
- Прогнозы криптовалюты MAVIA: информация о ценах на Heroes of Mavia
- Прогнозы криптовалюты WLD: информация о ценах на Worldcoin
- Прогнозы криптовалюты AEVO: информация о ценах на Aevo
- Рейтинг лучших скам-проектов
- Доллар к турецкой лире: прогноз курса
- Прогнозы криптовалюты TON: информация о ценах на TON
- Прогнозы криптовалюты BETA: информация о ценах на Beta Finance
2024-07-01 09:36