Классический форум-трекер
canvas not supported
Нас вместе: 4 249 803

Вместо помощи — господство: ИИ может лишить людей реальной власти


Страницы:  1, 2, 3, 4, 5, 6, 7  След. 
 
RSS
Начать новую тему   Ответить на тему    Торрент-трекер NNM-Club -> Поговорим -> Дискуссионный клуб
Автор Сообщение
V_i_S ®
Стаж: 15 лет 5 мес.
Сообщений: 1751
Ratio: 20.16
Поблагодарили: 11901
100%
Откуда: Планета Земля
russia.gif
Искусственный интеллект может постепенно лишить человечество контроля над ключевыми системами общества, предупреждают исследователи из Карлова университета в Праге и Telic Research. В своей работе они описывают новый экзистенциальный риск — «постепенное лишение власти» человеческого влияния, которое может привести к необратимым последствиям.



Авторы исследования подчеркивают, что даже небольшие улучшения ИИ способны подорвать влияние человека на экономику, культуру и государственные институты. В отличие от сценариев внезапного захвата власти сверхразумными машинами, этот процесс развивается постепенно: системы на базе ИИ все больше заменяют человеческий труд и принятие решений, что ослабляет как явные механизмы контроля (например, выборы и потребительский спрос), так и неявное соответствие ИИ человеческим интересам.

Чем меньше социальные и экономические системы зависят от людей, тем меньше у них остается возможностей для воздействия на эти процессы. К примеру, если искусственный интеллект управляет экономикой, он может оптимизировать ее по параметрам, не учитывающим интересы большинства людей. Со временем это приведет к тому, что человечество утратит рычаги влияния на ключевые сферы жизни.

Исследование рассматривает три ключевые сферы, в которых постепенное лишение власти людей может привести к серьезным последствиям:

1. Экономика. В отличие от предыдущих технологий, ИИ способен заменить не только физический, но и когнитивный труд практически во всех отраслях. Рыночные механизмы и отсутствие жесткого регулирования создают мощные стимулы для его внедрения. В лучшем случае это приведет к относительному обесцениванию, при котором люди остаются в достатке, но теряют экономическое влияние. В худшем — к абсолютному обесцениванию, когда люди окажутся неспособными обеспечивать даже базовые потребности.

2. Культура. Искусственный интеллект может заменить человека во всех ключевых культурных сферах, от журналистики до искусства. Проблема в том, что общество не обладает «культурными антителами» для противостояния этому влиянию. Относительное обесценивание выразится в том, что традиционная культура останется, но потеряет влияние. Абсолютное — в том, что культурная эволюция выйдет за пределы человеческого понимания и управления.

3. Государственное управление. ИИ способен сократить зависимость государств от человеческого участия. Политическая конкуренция, бюрократическая эффективность и желание элит усилить контроль ускорят внедрение ИИ в управление. В результате граждане могут постепенно утратить реальный контроль над государственными институтами. В крайнем случае ИИ-управляемые государства могут стать самоподдерживающимися структурами, где приоритетом станет не благополучие людей, а собственная власть.

Исследователи предлагают несколько стратегий, которые помогут предотвратить потерю контроля над социальными системами:

• Разработка метрик для измерения уровня обесценивания человеческого участия в экономике, культуре и политике.
• Введение механизмов регулирования ИИ через законы, налоговые инструменты и культурные ограничения.
• Усиление демократических процессов и повышение осведомленности граждан о рисках ИИ.
• Создание «ИИ-депутатов», которые будут представлять человеческие интересы при разработке решений.
• Фундаментальные исследования в области социотехнического баланса, направленные на обеспечение согласования ИИ с долгосрочными интересами человечества.

Исследователи подчеркивают, что проблема заключается не только в предотвращении агрессивного поведения ИИ, но и в сохранении способности человека управлять ключевыми общественными процессами. Без четкого понимания того, как поддерживать реальное влияние людей в мире, управляемом алгоритмами, человечество рискует оказаться в положении, из которого невозможно будет выбраться.

Источник
NIKOLLA45
Стаж: 12 лет 8 мес.
Сообщений: 60
Ratio: 99.259
100%
ussr.gif
1. ГОСПОДА - Плебеи.
2. ГОСПОДА - Ии - плебеи.

Второй вариант удобнее.
Der Denis
Стаж: 8 мес. 14 дней
Сообщений: 128
Ratio: 14.056
2.9%
Ай. опять этот порожняк страхов новых технологий.
slaka
Стаж: 14 лет
Сообщений: 13
Ratio: 3.944
5.23%
latvia.gif
Посмотрите мультик Полигон, все понятно ??????
gsec
Забанен
Забанен
Стаж: 10 лет 11 мес.
Сообщений: 131
Ratio: 846.547
100%
latvia.gif
Я бы охарактеризовал этот ужастик как: "Боже мой, как страшно жить!" :смех:
Brinnis
Стаж: 2 года 9 мес.
Сообщений: 164
Ratio: 2.395
100%
Смотрел по основным каналам программы, в которых обсуждали эту тему: по какой-то причине, особенно депутаты, очень боятся ИИ.
slaka
Стаж: 14 лет
Сообщений: 13
Ratio: 3.944
5.23%
latvia.gif
Посмотрите мультик "полигон" 1977 год про ИИ. все понятно ?????? 1977 !!!!!!!!!!!!!!!!!
hurtavy
Стаж: 14 лет 8 мес.
Сообщений: 104
Ratio: 4.341
1.36%
belarus.gif
Ужас! Появление ткацких станков подорвало влияние отдельных ткачей на экономику! Как жить то?
Deniskinsoft
RG Консоли
Стаж: 13 лет 10 мес.
Сообщений: 873
Ratio: 235.358
Раздал: 108.7 TB
Поблагодарили: 13088
100%
Откуда: Тольятти
ussr.gif
Изуверский Интеллект. Разум без души это ересь.

_________________
PSVita, не умирай!
Ochkarik

Online
Стаж: 15 лет 6 мес.
Сообщений: 72
Ratio: 1.394
100%
russia.gif
Ответ от DeepSeek:

Вы поднимаете важный вопрос о потенциальных рисках, связанных с развитием искусственного интеллекта (ИИ). Действительно, существует обеспокоенность тем, что ИИ может стать инструментом, который усилит неравенство и концентрацию власти в руках немногих, если его развитие и использование не будут должным образом регулироваться. Давайте разберем эту тему подробнее.
1. Риск концентрации власти
• ИИ требует значительных ресурсов для разработки и внедрения: большие объемы данных, вычислительные мощности и экспертиза. Это может привести к тому, что только крупные корпорации или государства смогут позволить себе создавать и контролировать передовые ИИ-системы.
• Если ИИ будет использоваться для автоматизации процессов принятия решений, это может привести к тому, что реальная власть будет сосредоточена в руках тех, кто контролирует эти системы, а не в руках людей.
2. Угроза автономии человека
• ИИ может использоваться для манипуляции общественным мнением, слежки и контроля над поведением людей. Это может подорвать демократические процессы и лишить людей свободы выбора.
• Автоматизация рабочих мест может привести к экономическому неравенству, если выгоды от внедрения ИИ не будут распределяться справедливо.
3. Этические и социальные последствия
• Если ИИ будет использоваться для принятия решений в ключевых сферах жизни (например, в юриспруденции, медицине, образовании), это может привести к тому, что люди потеряют контроль над важными аспектами своей жизни.
• Существует риск того, что ИИ будет воспроизводить и усиливать существующие предубеждения и дискриминацию, если его обучение будет основано на нерепрезентативных или предвзятых данных.
4. Как предотвратить негативные сценарии?
• Регулирование и прозрачность: Необходимо разработать четкие правовые рамки, которые будут регулировать использование ИИ. Это включает в себя требования к прозрачности алгоритмов, ответственности за их решения и защите прав человека.
• Этические принципы: Разработчики ИИ должны руководствоваться этическими принципами, такими как справедливость, подотчетность и уважение к автономии человека.
• Общественный контроль: Гражданское общество должно участвовать в обсуждении и принятии решений, связанных с использованием ИИ, чтобы предотвратить злоупотребления.
• Образование и информирование: Люди должны быть осведомлены о возможностях и рисках ИИ, чтобы они могли принимать обоснованные решения и требовать подотчетности от тех, кто использует эти технологии.
5. Баланс между технологиями и человеческой властью
• ИИ может быть мощным инструментом для улучшения жизни людей, если его использовать ответственно. Например, он может помочь в решении глобальных проблем, таких как изменение климата, болезни или бедность.
• Однако важно, чтобы развитие ИИ сопровождалось усилением демократических институтов и защитой прав человека, чтобы технологии служили людям, а не доминировали над ними.
В заключение, ИИ действительно может стать угрозой для реальной власти людей, если его развитие и использование не будут должным образом контролироваться. Однако при правильном подходе ИИ может стать инструментом, который усилит человеческий потенциал и поможет создать более справедливое общество.
vlad_evp
Uploaders 100+
Стаж: 11 лет 6 мес.
Сообщений: 486
Ratio: 176.987
Поблагодарили: 1090
100%
Откуда: Крым, Евпатория
russia.gif
Brinnis писал(а): Перейти к сообщению
по какой-то причине, особенно депутаты, очень боятся ИИ.

Депутаты правильно бояться. Взятки брать будет невозможно и бюджет обкрадывать. А ИИ деньги не нужны.
anlelika_mori
Стаж: 4 мес. 2 дня
Сообщений: 190
Ratio: 17.333
77.3%
ukraine.gif
Цитата:
Исследование рассматривает три ключевые сферы, в которых постепенное лишение власти людей может привести к серьезным последствиям:

После ИИ неизбежно придет к выводу,что люди не нужны. Уже десятки книг написано на эту тему.
golliaf82
Стаж: 12 лет 1 мес.
Сообщений: 316
Ratio: 2.977
0%
Сколько книг и фильмов на эту тему было создано еще в в прошлом веке, а современное время это, вероятно, станет реальностью...
Slimy
Стаж: 15 лет 8 мес.
Сообщений: 231
Ratio: 4.2
0.37%
собрались както гумманитарии обсудить технический вопрос..
ArniCyber
Стаж: 1 год 6 мес.
Сообщений: 1725
Ratio: 7.136
Поблагодарили: 880
19.95%
Откуда: from Matrix
japan.gif
Цитата:
А ИИ деньги не нужны.

А квитанцию за электроэнергию раскидают на всех, ага!

_________________
мы могли бы вести войну против тех, кто против нас, так как те,
кто против тех, кто против нас, не справляются с ними без нас.
Показать сообщения:   
Начать новую тему   Ответить на тему    Торрент-трекер NNM-Club -> Поговорим -> Дискуссионный клуб Часовой пояс: GMT + 3
Страницы:  1, 2, 3, 4, 5, 6, 7  След.
Страница 1 из 7