Сейчас ваша корзина пуста!
Какая политика в области ИИ в вашей школе?

Школьные округа в округе Аллегейни согласны в одном: ИИ пришел навсегда. С распространением образовательных ИИ-инструментов многие округа работают над принятием политик и изданием рекомендаций по использованию ИИ в классах.
Традиционные ИИ-программы выполняют задачи, которые иначе потребовали бы человеческого или животного интеллекта, следуя последовательностям правил и алгоритмов. Алгоритмы социальных медиа, рекомендательные системы для сервисов потоковой передачи, таких как Netflix, и голосовые помощники, такие как Siri от Apple и Alexa от Amazon, уже широко использовались до 2022 года.
Генеративный ИИ (gen AI) является новейшей инновацией, которая может создавать новый контент. ChatGPT и другие популярные инструменты gen AI, такие как Google Gemini и Claude от Anthropic, создаются на основе крупных языковых моделей, что означает, что они обучены на огромных объемах данных, собранных из Интернета, включая тексты, написанные людьми.
Как регионы адаптируются к ИИ?
Совет школьного округа школы Корнелл утвердил свою политику в прошлом году. Округ средней школы Бивера создал рекомендации прошлым летом. Школы Woodland Hills и Hempfield Area по-прежнему разрабатывают свои политики и рекомендации соответственно, а округ Baldwin-Whitehall имеет некоторые рекомендации, изложенные в других политиках и ресурсах, таких как кодекс поведения студентов и справочник для преподавателей.
Общее мнение среди руководителей округов, с которыми общались представители Public Source, заключается в том, что необходимо обучить учителей, чтобы подготовить учащихся к миру, в котором ИИ становится повсеместным.
Крис Хапп, директор по технологиям и учебным инновациям в Корнелле, сказал, что в прошлом году некоторые учителя округа участвовали в профессиональном обучении по ИИ в классе, сотрудничая с Линдси Форман, координатором K-12 из Симоновской инициативы Карнеги-Меллон. Хапп отметил, что учителя пришли к выводу, что им нужно создать «некую структуру, чтобы научить наших учеников использовать ИИ».
«Мы считаем, что если мы не готовим наших студентов функционировать в мире с ИИ, мы не готовим их к будущему,» — сказал Хапп.
В Hempfield Area заместитель суперинтенданта Эмили Сандерс этой весной провела обучение для округа по стратегии светофора для цветовой кодировки заданий, чтобы продемонстрировать множество применений ИИ в школах.
Ассоциация школьных советов Пенсильвании (PSBA) в мае 2024 года опубликовала руководство по политике, сосредоточенное на семи принципах инициативы TeachAI, которая стремится к эффективному и ответственному использованию ИИ в школах.
Сандерс отметила, что некоторые школьные округа предпочитают создавать рекомендации вместо политик, так как политикам требуется долгий комитетный процесс и несколько чтений перед школьным советом. Рекомендации могут быть созданы и изменены более легко.
Какие популярные инструменты ИИ для классов — и риски?
Учителя используют разнообразные инструменты для обучения, назначения классовых заданий и оценки работ своих студентов. Некоторые популярные инструменты среди учителей:
Робби Торни, старший директор программ ИИ в Common Sense Media, отметил, что важно, чтобы округа имели политику по ИИ, чтобы дать четкость учителям и студентам относительно того, что разрешено, а что нет. Согласясь с их исследованием, он сказал: «80% родителей, принявших участие в опросе, отметили, что они не слышали от школы о том, разрешено ли их ребенку использовать ИИ или нет. И подростки также выразили аналогичное недоумение относительно того, могут ли они использовать ИИ в своих классах.»
Он добавил, что округа должны обучать учителей, потому что в некоторых случаях использование ИИ может быть неадекватным или даже рискованным, что приводит к непредвиденным последствиям.
Одним из таких рискованных случаев является использование ИИ для создания Индивидуальных образовательных планов (IEP). Поскольку ИИ-инструменты не знают студентов, они не могут надежно отразить потребности студентов в своих IEP. Торни и его команда обнаружили, что предвзятость ИИ-инструментов или «невидимое влияние» также может негативно влиять на такие применения.
«Мы генерировали большое количество планов поведения и агрегировали их на основе расовой или этнической принадлежности и затем анализировали их, и начали видеть различия между, например, планами поведения для студентов с белыми имени и черными именами,» — сказал Торни.
Отчет CDT показал, что, хотя школы все больше создают политики и обучают своих учителей использованию ИИ, существенные риски остаются. Более двух третей учителей сообщили, что используют инструменты обнаружения контента ИИ, которые, как согласуются отчет и Торни, являются ненадежными.
«Технология, лежащая в их основе, неэффективна,» — сказал Торни. «Их показатели ложных положительных и ложных отрицательных результатов просто настолько высоки, что если бы они использовались в любой другой отрасли, например, в медицине, вы бы просто сказали, что этот инструмент непригоден. Их легко обойти с помощью хорошо известных советов и приемов, которые легко доступны для студентов.»
Прокомментировать в Телеграм: https://t.me/n8nhow
Подписаться на канал обучения n8n: https://t.me/n8ncoaching
