Татьяна Черниговская: люди со знаниями «как у всех» станут лишними

Современный мир нуждается в людях, у которых мозг «не залеплен пластилином». У которых открыты глаза, уши прислушиваются, нос принюхивается. А те, кто заканчивают учебные заведения со знаниями, которые и так у всех есть, переходят в категорию «лишних».

Поэтому задача образования сегодня — «развивать эти мозги, а не придушить их поскорее». О том, как и чему учить современных детей, свое мнение высказала на Гайдаровском форуме профессор СПбГУ, доктор филологических и биологических наук Татьяна Черниговская. Публикуем выдержки, а также полную видеоверсию выступления.

«Компьютеры научились играть в шахматы и го. Казалось бы, что с покером такая шутка не пройдет, отмечает Черниговская. «Способность блефовать, poker face — все это сугубо человеческое.

Но вот, пожалуйста: создана программа Libratus, которая разнесла в пух и прах четырех профессиональных игроков. И дело здесь не в играх. Искусственный интеллект приобрел черты не только алгоритмические. То есть, роботы на самом деле вторгаются на нашу территорию».

«Не стоит делать вид, что искусственный интеллект — это где-то в будущем. Будущее уже здесь. То, на что раньше уходили тысячелетия, потом столетия, потом десятилетия, сейчас занимает месяцы, часы и дни. Мы разогнались, и летим с большой скоростью.

Наш мир — текучий, нестабильный, гибридный. Это другой мир, не тот, в котором мы жили еще пять лет назад. И это необратимые перемены, которые имеют глобальное значение. Мы просто должны это осмыслить».

«Мир стал нечеловекомерен. Появились величины и пространства, в которых мы не живем: наносекунды, нанометры. Но все это уже влияет на нашу цивилизацию, и мы должны знать, как в этом мире жить, что нам делать, какое получать образование».

«Если я умею всем этим пользоваться, не просто на кнопочки нажимать, а по-настоящему разбираюсь, я попадаю в одну категорию людей. А если только блины умею жарить — в другую».

«Когда системы дополненной реальности способны создать полный эффект присутствия, как не потерять базовые представления о том, в каком на самом деле мире мы находимся? Как научить роботов принимать сложные решения? Внутри цифрового мира такие категории как мораль и право имеют совершенно другие конфигурации.

Например, беспилотник сбивает пешехода. Кто за это отвечает? Или машина встает перед выбором, который есть, пожалуй, в каждом учебнике психологии: повернешь направо — собьешь пять человек, повернешь налево — одного человека. Куда ей сворачивать?

Решение должно быть заложено в машину изначально. То есть, мы сразу должны запрограммировать моральные категории. Как это сделать? Кто должен принимать такие решения?

Читай продолжение на следующей странице

Жми «Нравится» и получай только лучшие посты в Facebook ↓

Татьяна Черниговская: люди со знаниями «как у всех» станут лишними