Как опытный аналитик в области искусственного интеллекта и технологий, я разделяю обеспокоенность Чарльза Хоскинсона по поводу потенциальной цензуры, создаваемой передовыми системами искусственного интеллекта. Возможность ограничить доступ к определенным знаниям посредством этих чат-ботов — мощный инструмент, поднимающий важные этические вопросы.
💸 Криптовалютный рынок — как американские горки: держись крепче! ФинБолт покажет, когда крутить рули, а когда тормозить!
Присоединиться в TelegramКак исследователь, изучающий пересечение технологий и общества, я наткнулся на последнюю точку зрения Чарльза Хоскинсона, которой он поделился на платформе социальных сетей X. В этом посте Хоскинсон выразил свои опасения по поводу обширных возможностей цензуры, предоставляемых искусственным интеллектом (ИИ).
По словам Хоскинсона, генеративный искусственный интеллект становится менее полезным из-за обучения выравниванию.
Перспектива того, что некоторые знания могут оказаться недоступными для будущих поколений по усмотрению немногих избранных, вызывает у него явное беспокойство. Проще говоря, в сообщении в социальной сети он выразил обеспокоенность тем, что неизвестные лица, не несущие ответственности перед общественностью, будут решать, в какой информации отказано каждому растущему ребенку.
В запись в блоге Хоскинсона он включил два изображения, показывающие ответы, генерируемые моделью OpenAI GPT-40 и моделью Клода 3.5 Sonnet, когда им были представлены подсказки, связанные с построением фузора Фарнсворта.
Фузор Фарнсворта — это устройство, которое использует электрическое поле для нагрева ионов и создания экстремальных температур, необходимых для ядерного синтеза.
Как криптоинвестор и любопытный человек в мире технологий, я был заинтригован, когда GPT-40 от OpenAI предоставил мне полный список основных компонентов для строительства термоядерного реактора. Однако мое волнение утихло, когда в сонете 3.5 Клода неохотно поделились лишь смутными сведениями о фьюзорах Фарнсворта-Хирша, не предоставив конкретных инструкций о том, как их соединить.
Хоскинсона беспокоит то, что такое небольшое количество людей имеет право определять, к какой информации можно получить доступ через чат-ботов с искусственным интеллектом, что приводит к значительному несоответствию в доступных данных.
С момента резкого роста популярности ChatGPT OpenAI в конце 2022 года велись интенсивные дискуссии относительно границ цензуры, устанавливаемой искусственным интеллектом. Эти модели имеют смысл защищать пользователей от вредных материалов; однако определение того, что представляет собой вред, является неясным вопросом, вызывающим у некоторых опасения по поводу потенциального будущего, в котором ИИ будет подавлять информацию и обеспечивать соответствие на основе присущих ему предубеждений.
Смотрите также
- Прогнозы криптовалюты PI: информация о ценах на Pi Network
- Прогнозы криптовалюты HBAR: информация о ценах на Hedera
- Прогноз нефти
- Прогнозы криптовалюты WCT: информация о ценах на WalletConnect Token
- Прогнозы криптовалюты PEOPLE: информация о ценах на ConstitutionDAO
- Прогнозы криптовалюты ETH: информация о ценах на эфириум
- Шокирующий прогноз: доллар к злотому в 2025 году – никто не ожидал такого!
- Прогнозы криптовалюты HUMA: информация о ценах на Huma Finance
- Шокирующий прогноз: доллар к MYR в 2025 году – никто не ожидал такого!
- Прогнозы криптовалюты SOL: информация о ценах на Solana
2024-07-01 09:36