Cieľom tejto práce je vytvoriť zjednodušenú, biologicky inšpirovanú multimodálnu reprezentáciu tela (schému tela). V tejto práci používame open-source simulátor humanoidného robota iCub, ktorý sa učí asociovať medzi dvoma modalitami somatosenzorického systému, propriocepciou a hmatovým vnemom. Navrhnuté riešenie využíva predikčný model založený na viacvrstvovom perceptróne, ktorý je učený off-line, metódou učenia s učiteľom. Dokáže predvídať nasledujúci stav tela a potenciálny hmatový vnem na základe aktuálneho proprioceptívneho stavu a vstupnej akcie. Pred samotným učením boli pomocou simulátora iCub-a, ktorý vykonával rôzne vzájomné dotyky oboch jeho rúk, zozbierané trénovacie dáta. Neurónová sieť bola úspešne otestovaná a preukázala vlastnosť predvídať dotyk v príslušných proprioceptívnych stavoch, v prípade, že nebola na vstupe daná žiadna akcia, ale aj anticipovať dotyk pri pohybe, krátko pred tým, ako nastal.