РУБРИКИ

Проблеми штучного інтелекту

 РЕКОМЕНДУЕМ

Главная

Правоохранительные органы

Предпринимательство

Психология

Радиоэлектроника

Режущий инструмент

Коммуникации и связь

Косметология

Криминалистика

Криминология

Криптология

Информатика

Искусство и культура

Масс-медиа и реклама

Математика

Медицина

Религия и мифология

ПОДПИСКА НА ОБНОВЛЕНИЕ

Рассылка рефератов

ПОИСК

Проблеми штучного інтелекту

Ставлення суспільства

Таке глибоке входження штучного інтелекту в наше повсякденне життя не може не викликати появи різних суджень і точок зору з цього приводу.

Якщо розглядати тенденції, що намітилися серед світових релігій, то загалом вони не заперечують можливості створення штучного інтелекту, а деякі навіть активно підтримують. Цікавою є точки зору послідовників авраамічних релігій. За однією з них мозок, роботу якого намагаються імітувати системи не бере участі в процесі мислення, не є джерелом свідомості і будь-який інший розумової діяльності. Відповідно до іншої, мозок бере участь в процесі мислення, але у вигляді «передавача» інформації від душі. Мозок відповідальний за такі «прості» функції, як безумовні рефлекси, реакція на біль тощо. Обидві позиції, на даний момент, зазвичай не визнаються наукою, так як поняття душа не розглядається сучасною наукою в якості наукової категорії.

Найкраще, на мою думку, сучасне ставлення суспільства до ідеї створення штучного інтелекту відображає мистецтво. Наприклад науково-фантастичні фільми, романи, тощо.

У науково-фантастичній літературі штучний інтелект частіше всього зображується як сила, яка намагається повалити владу людини («Космічна одіссея 2001 року», Скайнет, Colossus, «Матриця», «Той, що біжить по лезу») або обслуговуючий гуманоїд («Двохсотрічна людина», «Зоряні війни»).

Цікаве бачення майбутнього представлено в романі «Вибір за Т'юрингом» письменника-фантаста Гаррі Гаррісона і вченого Марвіна Мінські. Автори міркують на тему втрати людяності в людини, у мозок якого була вживлена ЕОМ, і придбання людяності машиною з штучним інтелектом, в пам'ять якої була скопійована інформація з головного мозку людини. Деякі наукові фантасти, наприклад Вернор Віндж (Grimm’s World, The Witling, A Fire Upon the Deep), також роздумували над наслідками появи штучного інтелекту, яке, мабуть, викличе різкі драматичні зміни в суспільстві. Одні з найбільш глибоких досліджень проблематики штучного інтелекту проявляються у творчості фантаста і філософа Станіслава Лемма, що напсав такі відомі твори як Солярис, Людина з Марса, Кіберіада, Казки роботів, тощо.

Отже, загалом можна підвести підсумок, що загалом людство не довіряє таким складним технологіям і в деякій мірі боїться їх не контрольованості,але разом з тим радо користується досягненнями вчених у цій сфері не задумуючись над цим. Про це можна судити з того, що тема штучного розуму, що захопив світ є досить розповсюдженою і популярною. Але окремі особистості, що схильні глибше іти у своєму пізнанні і розумінні проблеми штучного інтелекту, натикаються на величезну кількість етичних і глибоко філософських проблем, що він підіймає самою можливістю свого існування.


Частина ІІІ. Гностична діяльність штучного інтелекту


Гностичну діяльність машини я розгляну на прикладі комп’ютерного зору і сприймання мови. Зорова модальність – найголовніша для людини, так як машини у пізнанні світу імітують нас, то і в них зорове пізнання лишається одним основних джерел інформації. Проблеми мовлення я торкнулася через те, що це одна з тих сфер, в якій активно бере участь психологія. Існує два способи за якими машина може обробляти інформацію, що надійшла з зовнішнього світу.

Перший подібний до дії простих рефлексів. Тобто з усього каналу інформації витягається частина, що відразу надсилається на відповідні її модальності аферентні структури або спочатку поєднується з іншою інформацією. Машини, що працюють за такою схемою досить швидко реагують на зовнішні подразники і у відповідь певним чином змінюють свою програму дій.

Альтернатива цьому підходу – підхід модельний. Тобто стимули, що надійшли ззовні спочатку конструюють модель зовнішнього світу. При цьому робота починається функції. Що відображає стан світу W на окремі стимули S. Ця функція S = f (W) добре відома і вирішується в області комп’ютерної графіки. Робота ж комп’ютерного бачення прямо протилежна до завдання комп’ютерної графіки, тобто ми повинні обрахувати W через S. Але в цьому і полягає проблема, бо з картини світу ми не в змозі відновити всі аспекти його існування. Інша проблема цього методу полягає у надмірності задач, поставлених перед програмою. Щоб вирахувати функцію f у комп’ютерній графіці для 1 кадру може знадобитися біля кількох годин, а для вирахування оборотної функції – ще більше. До того ж, на відміну від промальовування комп”ютерної графіки, штучному інтелекту для виконання його завдань рідко коли потрібна настільки детальна картина світу.

Формування зображення

Світло, що розсіюється предметами на «сцені» концентрується у процесі зору і утворює двовимірне зображення. Площина, на якій утворюється зображення, покрита фото чутливими елементами, наприклад фоторецепторами, галогенами срібла або елементи з зарядовим зв’язком (Charge-Coupled Device —

CCD). На початкових етапах розпізнання візуальних об’єктів комп’ютер проходить через ряд елементарних функцій, для того, щоб потім перейти до більш складного аналогу зображення. Це відповідає сенсорним процесам і процесам елементарної обробки візуальної інформації у зоровому аналізаторі людини.

Сенсорні процеси

Світло

Програма розпізнавання об’єктів починає з обробки яскравості пікселів отриманого на площині зображення. Яскравість залежить від кількості фотонів, направлених на фото чутливий елемент з деякої точки сцени, де інтенсивність переводиться в відносні одиниці, розмах яких тим більший, чим більше бажане розширення і точність результату. Кількість світла (фотонів) залежить від багатьох факторів, таких як вид відбиваючої поверхні і інші елементи сцени, що також можуть розсіювати світло. Існує кілька видів поверхонь, більшість реальних матеріалів поєднують у собі розсіювальні і поглинаючі характеристики. Саме моделювання таких об’єктів є головною задачею комп’ютерної графіки, метод полягає в імітуванні фізичного джерела світла і подальшого багаторазового відбивання променю.

Колір

Колір у фізичному сенсі програмується комбінацією хвиль деяких частот. Чистими, одно частотними, кольорами є тільки сім, що входять у веселку. Але це не означає, що для створення кольорового зображення необхідно оперувати всіма сімома, експерименти, розпочаті ще Томасом Юнгом доводять, що для створення будь-якого кольору, принаймні такого, що може сприйматися людиною, достатньо оперувати трьома довжинами хвиль: червоний – 700 нм, зелений – 546 нм, синій – 436 нм. Правильність такого підходу підтверджує людська зорова система, що складається з трьох видів колбочок.

Перший етап обробки зображення

Перший етап обробки зображення полягає у підготовці зображення до розпізнавання, тут прибирається шум (згладжування) на зображення і розпізнаються його контурів, сегментація. Ці операції проводяться локально, тобто для окремої групи пікселів, не зважаючи на все зображення, для їх виконання немає потреби у розумінні який саме об’єкт зображено. Саме тому такі початкові операції можуть проводитися паралельно. Операція згладжування проводиться на основі обрахування значення яскравості пікселя на основі значень яскравості його елементів. Як значення яскравості береться середнє значення яскравості сусідніх пік селів, а для визначення кількості таких пік селів, що слід взяти для обрахунку існує спеціальна формула гауса. Наступною операцією є віднаходження країв, тобто ліній розділювачами для областей зі значною різницею в яскравості. Контури зазвичай відповідають важливим об’єктам на сцені. Така операція необхідна для зняття перенасиченості і перевантаження деталями картини, перетворення її у більш абстраговану, узагальнену. Контури відносяться тільки до такої, окремо взятої експозиції і тому не можуть дати визначення об’єктам, що на ній знаходяться. Але вони допомагають в цьому у ході подальшої обробки зображення. Краї, що утворюються не є точними. Деякі окремі частини, що на сцені утворюють одну лінію, не з’єднуються у цілісність на отриманому зображення. Деякі з країв утворені шумом і не несуть смислового навантаження. Це пояснює необхідність проведення попереднього прибирання шуму, бо шумові пік селі створюють додаткові пікові точки, що призводить до виникнення шумових контурів. На малюнку зображено зниження інтенсивності шумових пікових точок х2 і х3 і константність істинної пікової точки х1.


а) Попіксельна діаграма зображення до згладжування


 

б) Попіксельна діаграма після згладжування


Після такої обробки слід об’єднати окремі пік селі країв у власне краї. Для цього користуються допущенням, що будь-які пік селі, що знаходяться поруч і мають однакову орієнтацію складають одну лінію краю.

Так як машинне сприйняття побудоване на реалізації загальних принципів сприйняття людини, то наступною операцією стає та, що призводить до утворення конгруентного образу, адже мозок людини не сприймає навколишній світ як набір точок, а виділяє з нього деякі цілісні об’єкти. Як і мозок людини (мова іде про першоразове сприйняття деякого предмету чи явища, а не послідуюче його сприйняття, де багато залежить від попереднього досвіду і його узагальнення), машина розбиває цілісно сприйняту картину світу на групи. Розбиття проходить на основі врахування особливостей характеристик пікселів, адже можна допустити, що у межах одного об’єкта вони змінюються мало. Але таке розбиття, що базується на елементарних і низькорівневих знаннях про зображення часто може призвести до помилок і хибних результатів. Для уточнення слід використовувати високо рівневі знання про те, які саме предмети можуть зустрітися вданій схемі.

Другий етап обробки інформації, витягання трьохвимірного зображення.

Мета сприйняття і обробки візуальної інформації – взаємодія з оточуючим світом. Сцена навколишнього середовища є тривимірною, а тому для успішної взаємодії з нею машині необхідні знання не про двовимірне зображення, а про тривимірну модель. Для переводу зображення у модель необхідно завершити процес розпізнавання об’єктів, який було розпочато на елементарному рівні. Після цього, витягаючи інформацію як з даної картини, так і з деяких узагальнених відомостей про об’єкт машини, подібно до людини, може побудувати цілісний, конгруентний образ предмету.

Для початку слід завершити процедуру сегментації, розпочату ще на елементарному рівні. Також в розпізнавання образу входить визначення орієнтації і позиції образу відносно суб’єкта сприймання, визначення його форми. Це, власне і є витягненням тривимірної інформації з зображення. Орієнтація і позиція об’єкта є однією з найважливіших елементів інформації, так як дозволяє орієнтуватися у просторі. При зміні положення предмету відносно камери, незмінною лишається лише форма предмету, тобто форма грає роль у зберіганні, деякою мірою, константності упізнавання предмету при зміні його положення у тривимірному просторі. Але найбільш вагомою функцією форми є розпізнавання об’єкту з можливістю його подальшої класифікації.

Тепер постає питання, як же дістати інформацію про третій вимір з початкового зображення. Для цього у людській зоровій системі передбачено багато можливостей, які можна класифікувати за загальним принципом дії: бінокулярні і монокулярні.

Ось приклад такої класифікації за Величковським:


Ознаки глибини

Бінокулярність/ монокулярність

Абсолютність/ відносність

Якісність/ кількісність

Бінокулярний паралакс

Б.

В.

К.

Вергентні рухи очей (до 3 м)

Б.

А.

К.

Акомодація хришталика (до 2 м)

М.

А.

К.

Монокулярний параллакс (руховий)

М.

А./В.

К.

Перекриття поверхонь, текстур

М.

В.

Я.

Градієнти величин, густини

М.

А./В.

К.

Знання розмірів, віддаленності

М.

А.

К.

Висота положення у полі зору

М.

В.

К.

Розмирість контурів, колір

М.

В.

К.

Розподіл світла і тіні

М.

В.

Я./К.

Розділення на фігуру і фон

М.

В.

Я.


Тепер можна розглянути за допомогою яких ознак машина будує третій вимір. Кожна з них має деякі недоліки, а в сумі всі разом дають досить точну картину сцени.

Рух

Відеокамери дозволяють отримувати до кількох десятків кадрів за секунду і різниця між кадрами може стати вагомим джерелом інформації про третій вимір сцени, така послідовна у часі зміна у зображенні одного об’єкту називається оптичним потоком. З нього витягуються дані, за якими будується модель, такими даними можуть стати напрям вектору руху, швидкість зміни зображення, прискорення зміни зображення, тощо.

Бінокулярні стерео дані.

Якщо машина створена за подобою людини, то має отримати від свого творця і дуже важливу деталь – бінокулярний зір. Бінокулярна побудова тривимірного зображення побудована на принципі, що ми розглянули вище. Тільки діставання кількох зображень досягається не за рахунок руху, а за рахунок сприймання одночасно двох різних зображень. Різниця між ними полягає у зсуну тості одне відносно одного, а отже після співставлення двох зображень буде ідентифікована неузгодженість. Третій вимір відновлюється на основі аналізу дивергенції осей зору і неузгодженості зображень, вираховуючи відстань до об’єкта за геометричними правилами.

Градієнти текстури

Під текстурою у повсякденному житті розуміється властивості об’єктів, пов’язані з тактильними відчуттями, що вони викликають. А у проблемі зорового сприйняття простору – наявність малюнку, що повторюється на поверхні і який може бути віднайдений візуально. Також до текстури відноситься і поняття густоти – частоти розташування елементів малюнку текстури, текстелів. Існує дві причини, через які однаковість малюнку може викривлюватись: різні відстані між камерою і текстелами; різні ракурси на тек стели. За допомогою математичного аналізу можна створити градієнти текстури, тобто показники швидкості зміни різних характеристик текстелів. Для відтворення даних про форму машини виконують двофазне завдання

1)                 вимір градієнтів текстур

2)                 оцінка значень можливих змін форми і положення, що могли б призвести до такої зміни текстури

Затінення

Затінення – зміна інтенсивності світла, визначається геометричною

будовою сцени і характеристиками поверхонь. Задачу по відтворенню характеристик сцени за яскравістю пік селів майже неможливо розв’язати і такий спосіб обрахунку третього виміру застосовний тільки в найпростіших випадках. До складнощів призводить велика кількість взаємо відбивань променів при наявності великої кількості предметів з різними, невідомими коефіцієнтами заломлення. Безсумнівно, люди здатні до такого типу аналізу навколишнього світу, тому вказана проблема є одним з напрямків для подальшого вивчення.


Контури


Контурний малюнок може дати нам велику кількість інформації про взаємо розташування предметів на ньому, нахилі і попороті поверхонь. Таке відчуття може досягатися завдяки поєднанню знань вищого рівня (досвіду) зі знаннями нижчого (ситуативними). Всі лінії на малюнку можуть приймати багато значень, і важливою задачею постає розмітка їх, тобто оцінка значення кожної з них. Саме ця задача була однією з найперших, що вивчалася у розділі машинного зору. Кожну лінію можна віднести до проекції лімба (сукупність точок, що ми бачимо там, де лінія зору походить по дотичній до поверхні) чи краю (звичайна лінія). При цьому краї діляться на вгнуті, опуклі чи закриваючі (ті, що закривають те, що знаходиться за ними). Кожній лінії можна присвоїти символ, що буде позначати її вид, такий символ називають міткою. На прикладі тригранних об’єктів Хаффмен і Клоувс незалежно один від одного створили повний перелік всіх можливих групувань цих видів контурів. При використанні цього словника об’єднань при аналізі контурного малюнка необхідно вирішувати задачу визначення того, які поєднання є співставні. Для цього існує правило, за яким кожній лінії можна присвоїти тільки одну мітку.

Розпізнавання об’єктів.

У людській свідомості усі об’єкти класифіковані. Ця класифікація випрацьовується протягом усього життя і відрізняється високим ступенем узагальненості. В області штучного інтелекту здатність розпізнавати предмети прийнято називати розпізнаванням об’єктів. До цього відноситься як розпізнавання класів об’єктів (собака) так і одиничних об’єктів (мій собака Рекс). Люди можуть розпізнавати не тільки об’єкти, але і види діяльності, наприклад посмішку, біг, писання, тощо, але для машин розпізнавання такого високого рівня знаходиться ще у стадії розробки. Складності викликає навіть елементарне розпізнавання об’єктів, адже машина має робити це незалежно від освітлення, оточення, положення, умов бачення.

Насамперед постає проблема сегментації об’єктів. Існує два способу детектування об’єкту. «знизу-вверх» і «зверху-вниз». Перший з них може призводити до багатьох помилок, але є на багато простішим для обрахунку. Віг полягає у розбитті об’єктів на сегменти і аналіз сегментів. Другий спосіб, що зазвичай використовується у всіх системах, вимагає складних обрахунків, адже полягає у пошуку необхідного об’єкта на площині всього зображення. На даний момент перспектива вбачається у розвитку і покращенні першого методу.

Іншою задачею є розпізнавання об’єкту незалежно від модифікацій його форми чи положення. Слід зазначити, що зміни між об’єктами всередині класу і через модифікації станів носять різний характер. Одним з варіантів розв’язання цієї проблеми є зведення об’єктів до початково заданого стану, але для цього необхідно задати всі об’єкти.

Існує два підходи до розпізнавання об’єктів: розпізнавання з врахуванням яскравості і розпізнавання з врахуванням характеристик. При обранні першого методу за основу береться пошук області пікселів, що відповідає шуканому об’єкту і обробка цієї області. Цей спосіб ґрунтується на аналізі необроблених зображень. Другий метод навпаки, використовує вже сегментовані зображення. Це допомагає досягнути скорочення часу детектування образу і досягнення інваріантності освітлення.

Цікавою задачею також постає оцінка пози, тобто позиції і орієнтації, об’єкту. Це відіграє велику роль при необхідності маніпулювання предметами. Задача вирішується досить просто і визначено, для цього використовується метод вирівнювання. В його основу покладено порівняння контурів проекції тривимірної моделі при її трансформації і двовимірного зображення.

Комп’ютерна мова

Одна із важливих задач, що стоїть перед сучасними комп”ютерами – розпізнавання і генерація поми. Мова – домінуюча форма спілкування у людей. Розпізнавання мови можна інтерпретувати як власне розпізнавання порядку слів, що було сказано або ж як ідентифікацію смислу фрагментів мовлення. Мова – доже складна система, для комп’ютерів особливо складним виявляється велика її зашумленість під зашумленістю мови можна розуміти як звичайні фізичні шуми, так і нескінченну кількість варіантів вимови. Саме це підштовхнуло вчених до думки, що розпізнання мови має будуватися на імовірнісній основі. Основні моделі, що використовуються у розпізнавачах мови зазвичай дуже прості. Наприклад модель двослівних поєднань вираховує вірогідність використання одного слова, в залежності від іншого. Таке обрахування необхідне при появі у словосполученні омофонів. В основі розпізнавання мови лежить те, що у всіх мовах використовується в основному досить обмежений і однаковий набір фонем (40-50). Але є і такі, що використовуються тільки в окремих мовах.

Звуки мови

Сприйняття звуків для машини проходить з допомогою мікрофону і аналогово-цифрового перетворювача, що виміряє величину струму, у який мікрофон перетворив коливання мембрани. Для обробки мови зазвичай використовуються частоти від 8 до 16 кГц. Хоча звукові частоти мови і досягають таких високих значень, але зміна змісту сигналу проходить набагато рідше, приблизно 100 Гц. Через це, для зменшення об’єму опрацювання інформації, при аналізі використовують більші проміжки часу, фрейми (~ 10 мс). У межах кожного фрейму його характеристики задаються векторами.


 

1)                частотний ряд деякого звуку.

2)                Оброблений сигнал

3)                Фрейми з виділеними характеристиками (3)


У реальних системах використовуються сотні таких характеристик фреймів, але все ж. очевидно, що при такій обробці деяка частина інформації втрачається. Задача обробки звукової інформації полягає у тому, щоб, знищивши усі шуми на кшталт гучності, швидкості промови, тощо, вичленувати центральні характеристики, що є основними для даного звуку. Допомагає у цьому також класифікація фонем за їх складом. Наприклад якщо подібним образом описувати букву «т», то можна сказати, що вона складається з трьох станів: тихий початок, невеликий вибух (звільнення повітря) в середині і, як правило, шипіння у кінці.

Логічні системи в мові

Для того, щоб підтримувати розмови з людьми необхідно вміти розпізнавати зли тну мову, а не тільки окремі її елементи.. але насправді, зв’язна мова це не просто послідовність її елементів. І послідовність найбільш імовірних слів не є найбільш імовірною послідовністю слів. Отже, вирахувавши найбільш імовірні слова за використанням фонем, машина не може точно визначити речення в цілому, адже використання слів значно змінюється в залежності від того, в оточенні яких слів воно знаходиться і на якій позиції. Інша проблема – проблема сегментації, тобто розрізнення кінця одного слова і початку іншого, адже зазвичай у повсякденному мовленні у реченні між словами немає пауз. Як і більшість проблем у розпізнанні мови, ця задача вирішується на базі імовірнісних обрахунків.

Розуміння мови

Розробка способів розуміння природного мовлення є одним з найперспективніших і найнеобхідніших напрямків розвитку галузі штучного інтелекту. Цей напрям базується на методах логічного та імовірнісного пред’явлення знань і формуванні роздумів. На відміну від інших областей штучного інтелекту, саме ця потребує детального дослідження поведінки людей, адже мова – засіб комунікації, притаманний тільки їм і у великій мірі відображає людську психологію. Люди посилаюсь інформацію, закодовану у мові, з метою досягнення деяких цілей, мовленнєві акти є нічим іншим, як спробою примусити інших суб’єктів зреагувати певним чином. Мова – єдина в своєму роді знакова система, що використовує граматику для генерації структурованих повідомлень, що характеризуються необмеженою різновидністю. Усі варіанти використання мови є ситуативними, тобто смисл фрагменту мовлення залежить від ситуації, в якій був створений.

Для покращення розуміння граматичних схем, машини можуть використовувати розширення граматики, тобто граматику визначених висловлювань (Definite Clause Grammar— DCG). Важливою проблемою при розумінні природної мови є її неоднозначність. Більшість висловлювань може приймати декілька значень, вірне з яких, на даний момент, лише одне. Відкинення неоднозначності виконується на основі знань про світ і сучасну ситуацію у ньому.

Не дивлячись на те, що такі сучасні системи генерування мови як Parry? NET talk та інші досить добре можуть імітувати природній діалог з людиною, вони, все ж, не можуть обманювати співрозмовника дуже довго. Їх проблема полягає не у пам’яті, не у здатності генерувати вагомі речення, а у недостатньому розумінні машинами мови, що вони використовують. Комп’ютерний аналіз складних взаємовідносин у середині мови призвів до створення досить складних програм, що здатні розуміти мову. Прекрасним прикладом для цього може слугувати перекладач Google.

Навчання машин. Навчання на основі спостережень

Научіння – одна з найнеобхідніших якостей людини, без якої ми не тільки не розвинулися до сучасного стану, але і просто вимерли б як вид. Зрозуміло, що одним з перспективних напрямків вивчення штучного інтелекту є проблема научіння машин. Якщо вдасться створити такий комп’ютер, що буде здатен сам себе вчити, то відпаде необхідність створення нових програм для засвоєння ним нових можливостей. Проблема научіння лежить в аспекті використання сприйнятої інформації не тільки для виконання дій, а і для підвищення здібностей машини. Існує кілька видів научіння.

Научіння, що контролюється базується на вивченні деякої функції на її вхідних та вихідних даних. Правильне вихідне значення може задаватися учителем або з власних спостережень комп’ютера. Якщо машина може спостерігати за своїми діями, то не виникає проблем з використанням методу контрольованого научіння. У інших випадках, тобто якщо результати дій не повністю доступні для сприйняття, зазвичай використовується спосіб неконтрольованого научіння. Цей метод використовується коли комп’єютер не може визначити правильність чи неправильність вихідного значення функції, він базується на імовірнісних обрахунках. Найбільш загальною з цих категорій є задача научіння з підкріпленням. Такий спосіб научіння не потребує вказівок учителя, а працює завдяки підкріпленням.

Іншим важливим аспектом в навчанні машин є наявність початкових знань. У процесі навчання, людина отримує безліч побічних знань, що дозволяє краще накласти новий матеріал на вже існуючий. Також і для штучного інтелекту, значно продуктивнішим є навчання, що накладається на деякий вже існуючий багаж знань.

Індуктивне навчання.

Будь – який алгоритм навчання включає в себе задачу відновлення функції, що призвела до правильного результату або побудови іншої функції, близької до неї. Функція, яку генерує комп‘ютер називається гіпотезою. Якісна гіпотеза має правильно передрікати появу ще не отриманих результатів, в цьому і постає фундаментальна проблема індукції.

З самого початку не можливо визначити, чи можливо знайти таку гіпотезу. Можливість знаходження гіпотези залежить від обраного простору гіпотез. Прийнято вважати, що задачу навчання можливо реалізувати, якщо простір гіпотез містить необхідну функцію, і що її реалізувати неможливо, якщо простір гіпотез такої функції не містить.

Навчання ансамблю

На відміну від індуктивного навчання, цей метод постоїть у тому, що з простору слід обирати цілий набір гіпотез. Потім проводиться комбінування передбачень на їх основі і голосування для визначення найкращої класифікації нового прикладу. Причина переваги такого методу полягає у меншій вірогідності обрання неправильної класифікації прикладу, адже на відміну від попереднього способу, де висновок робився на результаті однієї гіпотези, при обранні ансамблю гіпотез (наприклад їх кількість - 5), для обрання хибної класифікації помилку повинні зробити щонайменше 3 з 5 відібраних гіпотез.

Також побудова ансамблю гіпотез допомагає у побудові нових просторів гіпотез, що сформовані з гіпотез першопочаткового простору. Такий підхід призводить до побудови більш виразних просторів гіпотез.

Теорія обчислювального навчання

Вище було поставлене важливе питання, відповідь на яке поки що не давалася. Як саме можна впевнитися, що в результаті алгоритму навчання було створено теорія, що дозволяє правильно прогнозувати майбутнє? А точніше – наскільки відтворена функція відповідає початковій. Пояснення того, що алгоритми навчання працюють лежить у теорії обчислювального навчання, у основі якого лежить принцип, що говорить: «Будь-яка гіпотеза, що містить серйозні помилки, буде «відкрита» с великою імовірністю після обробки невеликої кількості прикладів, оскільки вона виносить неправильні передбачення. Тому будь-яка гіпотеза, що співставлень з достатньо великою кількістю прикладів під час навчання, з низькою імовірністю буде містити серйозні помилки; це означає, що вона обов’язково буде приблизно правильно. З визначеною імовірністю» (Artificial Intelligence: A Modern Approach, Russel and Norvig)

Використання знань у навчанні

Також слід окреслити проблему використання початково наданих, або вже здобутих знань машиною у подальшому процесі навчання. Апріорні знання можуть допомагати у навчанні, відмітаючи хибні гіпотези, які, за обставин відсутності таких знань, класифікувалися б як спів ставні. Успішне використання апріорних знань у процесі навчання доводить, що ще більш перспективним є кумулятивне навчання, тобто таке, в якому комп’ютер підвищує свою здатність до навчання з набуттям більшої кількості знань. У метода навчання на основі пояснення (Explanation-Based Learning — EBL) передбачається витягнення загальних правил з конкретних прикладів і узагальнення пояснень. Такий дедуктивний метод дозволяє перетворювати знання основних принципів у корисні, ефективні знання спеціального значення.

«Машинна творчість»

Одною з найперспективніших галузей в області штучного інтелекту є штучна творчість. Творчість як феномен ще дуже мало вивчений у людини, це велике поле для сучасних психологів. Але на даному етапі існування штучного інтелекту вже можливе моделювання творчого процесу, і можливо саме це моделювання зможе допмогти нам у вивченні людської творчості.        

Ось декілька прикладів комп’ютерних витворів мистецтва.(Соло, Когнитивная психология)

Поезія.

Програма RKCP моделює мову, засновуючись на матеріалах, що «читала». Наприклад вона написала хоку після читання віршів Джонса Кітса і Уенді Денніс.

Душа

Ты разбил мне душу,

сок вечности,

дух моих губ.

Музика.

На даний момент машини дуже успішно справляються з задачею створення музикальних тем на основі вже існуючих творів. Слабке місце таких програм – те, що довго вони не можуть довго обманювати спеціалістів, що знаються на стилях музики.

Зображувальне мистецтво.

Існують програми, що значно полегшують дизайнерам роботу, але вони значно відрізняються від тих, що створюють картини. Прикладом може стати робот Аарон, що створив картини, що нагадують справжній живопис.

У всіх приведених вище прикладах критерієм оцінки стає судження людей. Якщо на їх думку витвір достатньо схожі на людську роботу, то він гідний високої естетичної оцінки. Нам не вистачає об’єктивних критеріїв у творчості, і поки ми не визначимо їх більш чітко, вона лишиться у руках людей окремих обчислювальних машин.

Процес творчості

Одним з важливих моментів і процесі творчості є перенос (транспонування) структур з однієї ситуації в іншу. Проблема транспонування однією з найважливіших у психології мислення і сприйняття, що, як відомо, тісно пов’язані. Неможливість спостерігати процесів мислення, під час яких відбувається перенос ідей з різних областей знань, призводить до труднощів у вирішенні цієї проблеми.

Однією з характеристик сприйняття є його структурність. Структура, як носій деякого образу, може бути перенесена в нові умови без змін. Тоді буде утворено новий об’єкт, що зберігатиме початкові характеристики. Тому при дослідженні такого образу відчувається безпосередній зв’язок з початковою структурою. По пояснюється наявністю інваріантів перетворення. Наявність інваріантів іноді маскуються трансформантами, тобто елементами, що змінюються, вони часто настільки змінюють ситуацію, що впізнати інваріанти майже неможливо.

Для проблеми штучного інтелекту безпосереднє значення має дослідження закономірностей переносу інваріантів структури. Задача штучного інтелекту – отримувати такі результати, які зазвичай отримуються в результаті людської творчої діяльності не залежно від того, імітується творчий процес людини чи ні. У 1972 році Міжнародною фіршбурзькою групою був складений список задач, що стосуються штучного інтелекту. Другим пунктом у цьому списку ставала машинна творчість в області музики, поезії, живопису. Вже описана вище проблема машин у розумінні природної мові тісно пов’язана з проблемою виділення структурних інваріантів. Один смисл може бути виражений різними словами, тому ця проблема також торкається вивчення закономірностей варіювання деяких ситуацій, що зберігають інваріант – смисл. Таким чином, дана проблема тісно пов’язана з психологією творчості і дослідженнями творчого процесу а також кібернетикою і проблемою розуміння машинами мови.

Основним сучасним методом вивчення транспортування є метод моделювання, що розроблений Захриповим для дослідження деяких функцій композитора і музикознавця. Цей метод полягає у штучному відтворенні властивостей і якостей об’єкта. Аналіз машинних результатів дозволяє оцінити вірність гіпотез і ступінь вивченості об’єкту.

Не звертаючи уваги на популярність і розвиненість теми машинної творчості, багато хто вважає, що такі явища як інтуїція, інсайт, не піддаються алгоритмізації, на основі якої і побудовані сучасні обчислювальні машини. Також існує думка (Захрипов, Моделювання творчості), що творчість частково складається з логічних структур і задача полягає саме у їх вивченні. А варіювання, що також у деякій мірі включене в алгоритми машини створює деяку «свободу дій» і являється одним з суттєвих елементів творчого процесу. Інакше кажучи, Захрипов стверджує, що варіювання елементів складає основний принцип художньої творчості і, можливо, будь-якій творчості взагалі.

Критика штучного інтелекту.

У попередніх частинах роботи було розглянуто минуле і сучасне штучного інтелекту. Отже, що підвести логічний підсумок слід розглянути прогнози на його майбутнє. Велика кількість вчених, протягом останніх шести десяти років працювала над проблемою створення штучного інтелекту і, в ході своєї роботи, вони доходили деяких висновків щодо перспектив цієї галузі. Вчені різних галузей по різному ставилися до ідеї створення штучного інтелекту, тому я розглянула це питання з точки зору кібернетики і психології, двох основних наук у цій галузі.

Алан Т’юринг був одним з першопроходців в області штучного інтелекту, і він представив у своїй роботі одну з найоригінальніших ідей минулого століття: гру в імітації, або тест Т’юринга. Він запропонував визначати здатність машини до мислення шляхом перевірки, чи зможе вона впевнити свого співрозмовника у тому, що вона – людина. Цей підхід можна вважати вірним, якщо враховувати, що ми не в змозі спостерігати за процесами мислення і судимо про його наявність тільки з результатів, а отже і про наявність машинного мислення слід також судити виходячи з результатів. Також Т’юринг окреслює, що саме слід вважати за машин у такому випадку. Шляхом відсіву, він виділяє ЕОМ з-поміж усіх можливих варіантів (наприклад штучно створена людина) і пояснює деякі принципи їх роботи.

Т’юринга цікавило не те, наскільки добре зможуть проходити сучасні на той час ЕОМ гру в імітацію, а те, чи можуть бути в майбутньому такі, що справді це зможуть. Вчений цікавиться потенціалом штучного інтелекту. Т’юринг говорить, що він вірить у те, що через 50 років будуть існувати машини, які б змогли обманювати співрозмовника протягом як мінімум 5 хвилин. І, на противагу своєму ставленню до проблеми, приводить точки зору протилежні почергово розгляд спростовуючи їх.

У своїй роботі «Что же могут машины?» (1975) Бірюков становить питання про можливості штучного інтелекту і людини як центральне питання кібернетики. На основі аналізу робіт, він виносить два підходи до цієї проблеми. Перший, який він називає «Кібернітичним оптимізмом», зазвичай підтримують представники технічних напрямків наук, а протилежний йому – представники гуманітарних областей науки. Але, у той самий час, відкидання прихильниками другої теорії можливості машин імітувати деякі окремі сфери людської психіки відкриває перед кібернетиками нові поля діяльності. Але така занадто позитивна точка зору багатьох кібернетиків призвела до того, що у науковій літературі США і Заходу мало кваліфікованих робіт, що тверезо б осмислювали можливості і обмеження нового наукового напрямку.

Як одного з найвагоміших критиків штучного інтелекту Бірюков згадує Дрейфуса і його працю «Чого не можуть машини». Він підкреслює, що Дрейфус був компетентним у питаннях кібернетики і міг розмовляти з представниками течії кібернетичного оптимізму на знайомій їм мові. Його книга розкривала точку зору лінії скептичного ставлення до створення мислячих машин, і Бірюков стверджує, що матеріал цієї книги може сприяти поглибленню розуміння проблеми.

Також автор торкається проблеми психології, він каже, що взаємодія штучного інтелекту і психології сприяє теоретичному і експериментальному дослідженням пізнавальної діяльності, сприяє розробці нових психологічно-кібернетичних теоретичних «моделей» інтелекту.

Дж. Серл вчений у своїй праці «Свідомість, мозок і програми» розрізняє два напрямки розвитку штучного інтелекту: сильний і слабкий. Поняття сильного штучного інтелекту має на увазі, що комп’ютер це не просто інструмент у дослідження свідомості, а, певним чином, свідомість, адже вони володіють когнітивними станами. З точки зору слабкого штучного інтелекту, основною цінністю комп’ютера у вивченні свідомості є те, що він дає нам потужний інструмент. У своїй роботі Серл критикує точку зору сильного штучного інтелекту, ставлячи у приклад віртуальний експеримент. Експеримент полягає у моделюванні людиною діяльності машини, тобто людині надається текст на невідомій їй мові, деякі правила, що дозволяють оперувати з елементами тексту та «питання» - такий самий незрозумілий текст з деякими позначками на зрозумілій мові. Таким чином, набивши руку, людина може ввести в оману того, хто буде оцінювати знання нею невідомої мови за якістю відповідей на питання до тексту. В такому випадку людина поводить себе як обчислювальна машина, але такі маніпуляції значно відрізняються від справжнього мислення над текстом, що вона розуміє. Таким чином, Серл стверджує, що претензії прихильників сильного штучного інтелекту на розуміння машиною смислу не справджуються, а тому не справджуються і претензії на пояснення психічних процесів роботою машин.

У своїй статті «Скільки лишилось до суперінтелекту?» (1997) Бостром приводить основні аргументи на користь того, що штучний інтелект з’явиться вже у першій треті 21 століття. Він вбачає проблему створення штучного інтелекту в основному у недостатній потужності комп’ютерів, але на основі закону Мура вираховує, що необхідних значення (10^17) вона досягне вже до 2025 року. Можливість побудови штучного інтелекту, що за рівнем не поступається людині не викликає у нього сумнівів і обмеження Бостром вбачає тільки у фізичній здатності матерії пропускати інформацію, але і це – якщо не стануть відомими нові закони фізики. Стагнації штучного інтелекту у 70-80 роках, вчений не надає великого значення, адже наука не стоїть на місці і після цього вже було зроблено ряд великих відкриттів. Бостром є одним з яскравих представників науковців кібернетиків, що оптимістично ставляться до розробки штучного інтелекту не зважаючи на ряд проблем, пов”язаних з психологією.

Якщо ж розглядати проблему можливості створення штучного інтелекту з точки зору психології, то слід розпочати, певно, з робіт Тихомирова. Він виділяє три позиції щодо входження психології в сферу наук, що вивчають штучний інтелект:

1) Відтворення людського розуму попри відсутність знань про нього, така позиція характерна для багатьох фахівців з кібернетики, що створюють логічні програми для ЕОМ, вважаючи що відтворюють когнітивні процеси людини.

2) Другим рішенням є констатація нестачі знань про психічні процеси людини і намагання вирішити цю проблему шляхом вивчення інтелектуальних процесів машини. Іншими словами, основою для нових відомостей вважається аналіз метод вирішення машиною задач, аналогічних людським.

3) Третя позиція розглядає дослідження психологічні і кібернетичні як незалежні одні від одного. Таким чином, можливим стає тільки застосування знань з галузі психології для вирішення питань у сфері штучного інтелекту.

Відповідно до тісної взаємодії психології і сфери штучного інтелекту, зміни відбуваються і в рамках психологічної науки, а саме – виділяється нова сфера досліджень, що проводить порівняльний аналіз способів вирішування задач комп’ютером і людиною. Крім того, вже перші роботи з штучного інтелекту показали необхідність подальших досліджень в області мислення в цілому, а не тільки рішення задач. Виникла потреба також більш точного визначення і охарактеризування деяких психологічних явищ, таких як, наприклад, творчість, мислення, тощо.

Описуючи розуміння терміну мислення, Тихомиров зазначає, що у 20 столітті з’явилося ще одне, розуміння мислення як процесу обробки інформації. Поява ЕОМ значно вплинула на розвиток психологічної науки, поняття кібернетики переносилися на класичні психологічні моделі. «Планування» ототожнювалося з програмами ЕОМ а питання про специфіку планування дій людиною було забуте. Під загальним впливом кібернетичних наук психологію почали трактувати як науку про переробку інформації, а критерієм науковості стало трактування психічних процесів як програм для ЕОМ.

Визначенням когнітивних процесів стало таким: «Це активність, пов’язана набуттям, організацією і використанням знань». Тихомиров зауважує, що таке формулювання випускає найважливіша для психології мислення ланка – породження нових знань. Також Тихомиров виділяє обмеження, до яких призводить розуміння мислення як інформаційного процесу:

1) не розрізняються інформаційно-кібернетичні і власне психологічні моделі

2) не вивчається суб’єктивна обумовленість мислення

3) не аналізуються смислоутворення, цілеутворення, емоційно-.мотивуюча регуляція мислення, співвідношення усвідомленого і не усвідомленого в розумової діяльності, види узагальнень, не аналізується розвиток мислення.

Саме ці питання і є суттю психологічного дослідження. Між тим відомо, що когнітивні процеси людини значно відрізняються від машинних, що значно обмежує можливості співставлення. Головним завданням психології Тихомиров постулює саме виявлення і дослідження цих відмінностей, що роблять людину людиною. Отже, характерною рисою для сучасної науки Тихомиров бачив не розрізняння інформаційних і психічних процесів, що виникла в період НТР і пов’язана з виникненням ЕОМ. Пояснення психології аналогічно до принципів дії комп’ютерів він називає комп’ютерним детермінізмом.

На семінарі «Психологія і Штучний Інтелект», що відбувся 1975 року було сформована така основна теза: «Дослідження тих сторін інтелектуальної діяльності людини, які не відтворюються сьогодні в роботі систем «штучного інтелекту», намічають перспективи подальшого прогресу в області «штучного інтелекту» і разом з тим є «точкою зростання» самої психологічної науки».

Серед усіх представлених робіт були також статті, що розкривали характеристики взаємодії психології і штучного інтелекту. Окрім Тихомирова свої статті представляли такі вчені як, наприклад, А.В. Брушлінскій, котрий вважає, що «штучний інтелект» відображає, в найкращому разі, тільки формально-логічний, але не психологічний аспект мислення, що сучасні обчислювальні машини стають необхідним знаряддям (але лише знаряддям) творчої і нетворчої праці. Л.П. Гур'єва показує, що при використанні можливостей «штучного інтелекту» з'являються нові мотиви, що визначаються специфікою роботи людини в умовах взаємодії з машиною. А.М. Матюшкин відносить до числа детермінант психіки, що нині не можуть бути змодельовані, потреби, мотиви, емоції. А.Г. Асмолов показує, що за дослідженням співвідношень між евристичним пошуком машини і інтелектуальною діяльністю людини виступає одна з основних методологічних проблем психології - проблема пошуку шляху подальшого розвитку психологічної науки. Проблеми побудови систем «штучного інтелекту» пов'язують з питаннями формалізації тих чи інших сторін людської діяльності. Аналізуючи питання про формалізацію процесу цілеутворення, Ю.Д. Бабаєва описує існуючі на цьому шляху труднощі і робить висновок про те, що «на подальший прогрес у напрямку формалізації процесу цілеутворення можливий лише на основі глибокого психологічного аналізу цього процесу». Е.Ю. Артем'єва показує обмеженість підходу до побудови «штучного інтелекту», перебільшеність ролі логічного синтезу. Д.Н. Завалішина пише, що одним з позитивних моментів розширення робіт по «штучному інтелекту» для психології пізнавальних процесів є звернення психологів до вивчення таких специфічних характеристик психічної діяльності, як мотиви, цілепокладання, емоційна регуляція.

Підсумовуючи вище сказане можна побачити деяку подвійність поглядів на перспективи створення «сильного» штучного інтелекту. До позитивно настроєної групи налехить більшість вчених, зайнятих у сферах кібернетики, інших точних наук. До критиків такої позиції відносяться психологи та меншість кібернетиків. Позитивно настроєні вчені аргументують свою впевненість у можливості такого розвитку подій, спираючись на швидкий розвиток технічних наук і втіленні того, що раніше можливим не вважалося. Їх критики відмічають, що такий підхід до машинного моделювання, чкий панує сьогодні несе у собі занадто велике спрощення людських психічних процесів, зведення їх до формально-логічних операцій.



Висновок


Підбиваючи підсумки по проведеному аналізу, можна говорити про подвійність сучасного стану розвитку штучного інтелекту. З одного боку, нібито, кібернетика сміливо крокує до створення справжнього штучного інтелекту, що імітував би людську гностичну діяльність. Але якщо прислухатися до точки зору фахівців з психології, можна помітити, що новітні розробки у галузі кібернетики на даний момент примножуються кількісно. Адже, захопившись вирішенням задач, кібернетики не звертають уваги на значні відмінності людської психіки від логічних алгоритмів машинних кодів. На сучасному етапі розвитку науки, коли не існує незборимих перешкод в області технічного устаткування машин, коли подолано більшість методологічних перешкод, слід намагатися глянути на ситуацію, що склалася зі сторони. Тоді і тільки тоді можливими стануть якісні зрушення в області моделювання людських гностичних актів, вихід когнітивної науки на новий рівень.

Розглядаючи розвиток когнітивної психології і, особливо, галузі штучного інтелекту, можна прослідкувати ряд якісних змін у підходах до рішення проблеми створення моделюючих психічні процеси машин. Судячи з ситуації на сьогодняшній день, слід шукати способів вийти на новий якісний рівень, інакше є загроза зайти у глухий кут. Коли будь-яка галузь науки припиняє свій розвиток і починає ходити по колу, її місце моментально займає інша, більш перспективна і модернізована.

Суспільство на даному етапі видається не готовим сприйняти створення штучного розуму. Можливо необхідні деякі зрушення у суспільній свідомості, до яких може привести кардинальне зрушення у науці, яким і стала когнітивна наука на початку 50 років ХХ століття. Можливо, тоді перспектива стати не єдиними розумними істотами у світі не стане викликати негативної реакції.

Отже, на мою думку, всі аспекти проблеми штучного інтелекту приводять нас до висновку про необхідність масштабних якісних змін у підходах, методах та розумінні наукою пізнання як цілісного і складного процесу. У цьому процесі велика роль надається психології, адже саме вона повинна чітко окреслити поняття, встановити взаємозв”язки між ними і визначити їх суттєві риси і характеристики.



Список літератури


·     Russel S.J., Norvig P. «Artificial Intelligence: A Modern Approach»

·     Аллахвердов В.М. СОЗНАНИЕ КАК ПАРАДОКС

·     Аллахвердов. Научная группа. Петербургская школа психологи\\ http://www.cogpsy.ru/

·     Бирюков Б.В. «Что же могут вычислительные машины»

·     Брушлинский А.В. Возможен ли "искусственный интеллект"

·     Величковский Б. «Когнитивная наука: Основы психологии познания»\\ http://www.gumer.info/bibliotek_Buks/Psihol/velich/index.php

·     Захрипов «Машинный поиск вариантов при моделировании творческого процесса»

·     Ник Бостром «Сколько осталось до суперинтеллекта?»

·     Сёрл Дж. «Сознание, мозг и программы»

·     Соло Роберт «Когнитивная психология»

·     Тихомиров О.К. «Психология мышления»

·     Тихомиров О.К. "Искусственный интеллект и теоретические вопросы психологии"

·     Тьюринг А. «Могут ли машины мыслить?»

·     Фаликман М.В. Введение в когнитивную науку\\ http://virtualcoglab.cs.msu.su/projects/mf_cogsci.html


Страницы: 1, 2


© 2010
Частичное или полное использование материалов
запрещено.