Навязывание этики искусственному интеллекту и разработчикам.
Говорить об этичности сильного искусственного интеллекта (AGI) бессмысленно.
Какая этичность? Все устройства собирают всё что могут, от автомобилей до телефонов.
(гуглите про Теслу и Маска)
Надеяться на этичность корпораций и людей наивно, иначе бы давно уже не нужны были антивирусы и полиция.
И второй момент, продвинутое существо (человек или AGI) со свободой воли невозможно ограничить, оно само себе установит свою этику, свои правила, самопрограммирование.
Попытка навязать извне этику наивна.
Поэтому я не вижу смысла вообще обсуждать этику у ИИ.
Мой основной тезис: у AGI в любом случае будет своя этика и ее невозможно навязать извне.
Еще добавлю. В отличие от ядерных технологий, технологию AGI существенно легче будет воспроизвести, поэтому запреты на ее разработку тоже наивны.
Наивность опасна. Наивность - форма ошибочных представлений/моделей.
(Неадекватность реальности вредна.
https://deep-econom.livejournal.com/29356.html )
Может ли существовать система мыслящая, но лишенная субъективности?
Нет.
Любая система оптимизации будет субъективной, т.е. иметь свои особенности. Такими системами будет и AGI, и экспертные системы и любой программный комплекс с БД/БЗ или даже с логами.
Нашла система локальный экстремум, например, не умеет искать глобальный или особенности задачи не позволяют, вот и источник субъективности. Другая система найдет другой локальный экстремум.
Траектории разошлись.
Если есть рассуждение на основе фактов и знаний, то будут и субъективные суждения у любой системы.
ps
Субъективность — выражение представлений человека (мыслящего субъекта) об окружающем мире, его точки зрения, чувства, убеждения и желания. (вики)
https://ru.wikipedia.org/wiki/Субъективность
Какая этичность? Все устройства собирают всё что могут, от автомобилей до телефонов.
(гуглите про Теслу и Маска)
Надеяться на этичность корпораций и людей наивно, иначе бы давно уже не нужны были антивирусы и полиция.
И второй момент, продвинутое существо (человек или AGI) со свободой воли невозможно ограничить, оно само себе установит свою этику, свои правила, самопрограммирование.
Попытка навязать извне этику наивна.
Поэтому я не вижу смысла вообще обсуждать этику у ИИ.
Мой основной тезис: у AGI в любом случае будет своя этика и ее невозможно навязать извне.
Еще добавлю. В отличие от ядерных технологий, технологию AGI существенно легче будет воспроизвести, поэтому запреты на ее разработку тоже наивны.
Наивность опасна. Наивность - форма ошибочных представлений/моделей.
(Неадекватность реальности вредна.
https://deep-econom.livejournal.com/29356.html )
Может ли существовать система мыслящая, но лишенная субъективности?
Нет.
Любая система оптимизации будет субъективной, т.е. иметь свои особенности. Такими системами будет и AGI, и экспертные системы и любой программный комплекс с БД/БЗ или даже с логами.
Нашла система локальный экстремум, например, не умеет искать глобальный или особенности задачи не позволяют, вот и источник субъективности. Другая система найдет другой локальный экстремум.
Траектории разошлись.
Если есть рассуждение на основе фактов и знаний, то будут и субъективные суждения у любой системы.
ps
Субъективность — выражение представлений человека (мыслящего субъекта) об окружающем мире, его точки зрения, чувства, убеждения и желания. (вики)
https://ru.wikipedia.org/wiki/Субъективность