eug | Дата: Вторник, 10.04.2012, 23:05 | Сообщение # 1 |
eug
Ранг: Первоклашка (?)
Группа: Пользователи
Должность: информатика 3
|
Сообщений: |
38 |
Награды: |
0 |
Статус: |
Offline |
|
Эта тема была уже опубликована в виде дискуссии на форум dxdy Ниже привожу ее в отредактированном варианте для обсуждения, тем кому это интересно. -------------------------------------------------------------------------------------------- 1-е что есть во всех учебниках и зачастую преподносится как единственное - это измерение объемов информации и основанные на этом вопросы кодирования.Это - т.н алфавитный количественный подход, основанный на формулах Шеннона и Хартли.энтропия Шеннона пускай и математически-безупречная функция, пускай и обладает свойством аддитивности для независимых событий. Но на практике шенноновский подход тем не менее рассматривает информацию не как смысл а как мертвый объем символов. В самом деле, задачки на это обычно формулируются с применением вероятностей появления символов. В информатике выделяют т.н. содержательный подход к самому понятию информации и предложены некоторые способы измерения, так например,связывая ее с возможностью достижения цели. Так же вводится модель тезауруса. Но все эти подходы как-то академичны не разработаны, нет единого стандарта. И преподавание теории информации обходится без них. Как например мерять изменение знаний студента по математике когда ему прочли новую теорему? 1й студент просто заучил и не может ни к чему применять. У него должна быть одна мера 2-й студент переварил эту же теорему творчески. Посмотрел применимость порешал задачки. Появилось знание о ее применимости и мастерство решения в классе задач. В каких мерах оценивать 2 эти случая и чтобы меры были разные? Подход Шеннона можно распостранить и на это только вводя понятия полезной информации и потери информации при усвоении знаний. Следует отличать полезную информацию от полной информации. Скажем, при расчёте количества полной информации мы просто считаем априорные вероятности появления той или иной буквы в той или иной позиции равными. Поэтому надо пересчитать априорные вероятности с учётом того, что буквы должны складываться в слова, слова - в осмысленные фразы, а фразы должны говорить о чём-то таком, что важно и для передающего сообщение, и для принимающего. . Насколько я понимаю, на уровне преподавания информатика пока не занимается вопросами полезности информации, приемами выделения знаний из принятой общей информации. Хотя уже провела некоторую классификацию понятию "информации" и ее мер. Т.н. введено понятие "юридическая информация" и скажем "комбинаторная мера". Информатика по моему должна заниматься способами представления знаний в информационной системе — это вполне естественная тема для информатики. В общем информатика не занимается оценкой знаний, этим занимаются педагогика, которая может использовать для этих целей другие общеобразовательные дисциплины, например теорию вероятностей и информатику Вопросами выделения знаний из информации сейчас занимаются такие направления как"искусственный интеллект","инженерия знаний", проблемно-ориентированные "экспертные системы но никак не информатика. В системах искусств интеллекта мы имеем прежде всего дело не с первичной текстовой информацией а с предметной областью,базами знаний в ней. Там появляются критерии оценки информации. Такие как значимость, релевантность, достоверность. Привожу цитату "Принятие решения о релевантности информации некой проблемы осуществляется по нескольким признакам. 1 признак — это наличие явного указания на сферу интересов. Такое указание выявляется через наличие ключевых слов (названий, имен, дат, специфич терминов и т.п.). 2 признак более сложен, это наличие косвенного, смыслового указания. Здесь прямо назвать признаки не получится — в каждой ситуации они свои" В задачах обучения скажем какой нибудь науке цель формулируется более широко. типа построить набор понятий и приемов направленных на решение специфических задач науки. И здесь классифицировать информацию на "полезную" и нейтральную значительно сложнее. Выводы Сегодняшний уровень преподавания информатики крайне односторонен и его надо пересмотреть. Грубо говоря ,написать новый учебник, где важное место уделено не прикладным технологиям, а именно смыслу информации. Ведь оттого что если мы включим скажем элементы инженерии знаний или экспертных систем в предмет информатики, добавим простых доступных школьникам примеров и определений новых открытий конечно не произойдет. Но концы с концами свяжутся. Не будет такого пугающего разрыва между количественным подходом и семантическим. Да, можно пересчитывать вероятности и условные вероятности, но давайте сначала построим четкую систему определений, классификацию видов смысловой информации, правил ее выделения, а только потом начнем применять количественные меры! А то информатикой можно до бесконечности заниматься с т.зр.информационных технологий, работать в пакетах, редакторах, программных оболочках, но главное - информация и ее методы измерения останется за бортом! .
10.04.2012
Сообщение отредактировал eug - Вторник, 10.04.2012, 23:17
|
|
|
| |
|
AYuD | Дата: Среда, 11.04.2012, 14:46 | Сообщение # 2 |
AYuD
Ранг: Магистр (?)
Группа: Пользователи
Должность: информатика, математика
|
Сообщений: |
352 |
Награды: |
4 |
Статус: |
Offline |
|
Quote (eug) Как например мерять изменение знаний студента по математике когда ему прочли новую теорему? Это не информатика. Отнюдь. Это педагогика. Когда ему прочли новую теорему, его знания не изменились.
11.04.2012
|
|
|
| |
|