Lankide:Ikasle.ehu.andrea/Proba orria

Wikipedia, Entziklopedia askea

Ikaskuntza automatikoan, pertzeptroia (McCulloch-Pitts neurona) sailkapen bitarra egiteko ikasketa gainbegiratutako algoritmo bat da. Sailkapen bitarra funtzio bat da, zenbakien bektore batek irudikatzen duen sarrera bat mota zehatz batekoa den ala ez erabaki dezakeena. Sailkatzaile lineal mota bat da, hau da, sailkapen-algoritmo bat, bere iragarpenak funtzio lineal batean oinarrituz egiten dituena, pisu bektore eta ezaugarri bektore bat konbinatuz.


Definition

In the modern sense, the perceptron is an algorithm for learning a binary classifier called a threshold function: a function that maps its input (a real-valued vector) to an output value f(x) (a single binary value):

f(x)=θ(w·x+b)

where θ is the heaviside step-function, w is a vector of real-valued weights, w·x is the dot product , where m is the number of inputs to the perceptron, and b is the bias. The bias shifts the decision boundary away from the origin and does not depend on any input value.

Equivalently, since w·x+b=(w,b)·(x,1), we can add the bias term b as another weight and add a coordinate 1 to each input x, and then write it as a linear classifier that passes the origin:

f(x)=θ(w·x)

The binary value of f(x) (0 or 1) is used to perform binary classification on x as either a positive or a negative instance. Spatially, the bias shifts the position (though not the orientation) of the planar decision boundary.

In the context of neural networks, a perceptron is an artificial neuron using the Heaviside step function as the activation function. The perceptron algorithm is also termed the single-layer perceptron, to distinguish it from a multilayer perceptron, which is a misnomer for a more complicated neural network. As a linear classifier, the single-layer perceptron is the simplest feedforward neural network.


Definición

El modelo biológico más simple de un perceptrón es una neurona y viceversa. Es decir, el modelo matemático más simple de una neurona es un perceptrón. La neurona es una célula especializada y caracterizada por poseer una cantidad indefinida de canales de entrada llamados dendritas y un canal de salida llamado axón. Las dendritas operan como sensores que recogen información de la región donde se hallan y la derivan hacia el cuerpo de la neurona que reacciona mediante una sinapsis que envía una respuesta hacia el cerebro.

Una neurona sola y aislada carece de razón de ser. Su labor especializada se torna valiosa en la medida en que se asocia a otras neuronas, formando una red. Normalmente, el axón de una neurona entrega su información como "señal de entrada" a una dendrita de otra neurona y así sucesivamente. El perceptrón que capta la señal en adelante se extiende formando una red de neuronas, sean éstas biológicas o de sustrato semiconductor (compuertas lógicas).

El perceptrón usa una matriz para representar las redes neuronales y es un discriminador terciario que traza su entrada x (un vector binario) a un único valor de salida f(x) (un solo valor binario) a través de dicha matriz.

Donde  w es un vector de pesos reales y   es el producto escalar (que computa una suma ponderada). u  es el 'umbral', el cual representa el grado de inhibición de la neurona, es un término constante que no depende del valor que tome la entrada.

El valor de f(x) (0 o 1) se usa para clasificar x como un caso positivo o un caso negativo, en el caso de un problema de clasificación binario. El umbral puede entenderse como una manera de compensar la función de activación, o una forma de fijar un nivel mínimo de actividad a la neurona para considerarse como activa. La suma ponderada de las entradas debe producir un valor mayor que  para cambiar la neurona de estado 0 a 1.

Definizioa[aldatu | aldatu iturburu kodea]

Pertzeptroia neurona bateko eredu matematiko sinpleena da. Salkaitzale bitar bat da, eta datuak bi taldetan banatzen dituen ikasketa gainbegiraturiko sistema bat da. Atalase-funtzioa izeneko sailkatzaile bitar bat ikasteko algoritmo bat da: sarrera (balio errealeko bektore bat) f(x) irteera-balioan (balio bitar bat) mapatzen duen funtzioa:

f(x)=θ(w·x+b)

non θ aktibazio funtzioa, w pisu errealen bektorea, b alborapena eta w·x biderkadura eskalarra den . Batukariaren m zenbakia, pertzeptroiaren sarrera kopurua da. Alborapenak jatorritik erabaki-muga desplazatzen du, eta ez dago inolako sarrera-balioaren mende.


Era berean, w·x+b=(w,b)·(x,1) ekuaziotik abiatuta, b alborapen-terminoa beste pisu gisa gehitu dezakegu eta 1 koordenatua gehitu sarrera bakoitzari. Ondoren, jatorritik pasatzen den sailkatzaile lineal gisa idatzi dezakegu:

f(x)=θ(w·x)


f(x)-ren balio bitarra (0 edo 1) sarrerako x bektoreko instantzia positibo edo negatibo bezala sailkatzeko erabiltzen da. Espazioari dagokionez, alborapenak erabaki mugaren posizio aldatzen du baina ez honen orientazioa.


Geruza bakarreko pertzeptroi bezala ere ezaguna da, geruza anitzeko pertzeptroietik desberdintzeko. Sailkatzaile lineala denez, geruza bakarreko pertzeptroia aurreranzko neurona sare sinpleena da.

_______________________________________________________________________________

Aprendizaje

En el perceptrón, existen dos tipos de aprendizaje, el primero utiliza una tasa de aprendizaje mientras que el segundo no la utiliza. Esta tasa de aprendizaje amortigua el cambio de los valores de los pesos.

Lanpernean bi ikaskuntza mota daude: lehenbizikoak ikasketa tasa bat erabiltzen du eta bigarrenak ez. Ikaste-tasa horrek arindu egiten du pisuen balioen aldaketa.

El algoritmo de aprendizaje es el mismo para todas las neuronas, todo lo que sigue se aplica a una sola neurona en el aislamiento. Se definen algunas variables primero:

Ikasteko algoritmoa berdina da neurona guztientzat, eta jarraian datorren guztia neurona bakar bati aplikatzen zaio isolamenduan. Lehenengo aldagai batzuk definitzen dira:

  • denota el elemento en la posición  en el vector de la entrada
  • el elemento en la posición  en el vector de peso
  • denota la salida de la neurona
  • denota la salida esperada
  • es una constante tal que

Los dos tipos de aprendizaje difieren en este paso. Para el primer tipo de aprendizaje, utilizando tasa de aprendizaje, utilizaremos la siguiente regla de actualización de los pesos:

Bi ikaskuntza motak desberdinak dira urrats honetan. Lehenengo ikaskuntza-motarako, ikaskuntza-tasa erabiliz, pisuak eguneratzeko arau hau erabiliko dugu:

Para el segundo tipo de aprendizaje, sin utilizar tasa de aprendizaje, la regla de actualización de los pesos será la siguiente:

Bigarren ikaskuntza motarako, ikasketa tasa erabili gabe, pisuak eguneratzeko araua hau izanen da:

Por lo cual, el aprendizaje es modelado como la actualización del vector de peso después de cada iteración, lo cual sólo tendrá lugar si la salida  difiere de la salida deseada . Para considerar una neurona al interactuar en múltiples iteraciones debemos definir algunas variables más:

  • denota el vector de entrada para la iteración i
  • denota el vector de peso para la iteración i
  • denota la salida para la iteración i
  • denota un periodo de aprendizaje de  iteraciones

En cada iteración el vector de peso es actualizado como sigue:

  • Para cada pareja ordenada  en
  • Pasar  a la regla de actualización

El periodo de aprendizaje  se dice que es separable linealmente si existe un valor positivo  y un vector de peso  tal que:  para todos los .

Novikoff (1962) probó que el algoritmo de aprendizaje converge después de un número finito de iteraciones si los datos son separables linealmente y el número de errores está limitado a: .

Novikoff-ek (1962) frogatu zuen ikaskuntza-algoritmoa iterazio kopuru mugatu baten ondoren konbergitzen dela, baldin eta datuak linealki bereiz badaitezke eta errore kopurua honetara mugatuta badago:

Sin embargo si los datos no son separables linealmente, la línea de algoritmo anterior no se garantiza que converja.

Hala ere, datuak linealki ezin badira bereizi, aurreko algoritmo-lerroak ez du bermatzen konbergentzia lortuko duenik.

Ikaskuntza[aldatu | aldatu iturburu kodea]

Pertzeptroian bi ikaskuntza mota daude: lehenengoak ikasketa tasa bat erabiltzen du eta bigarrenak ez. Ikasketa-tasa horrek arindu egiten du posuen balioen aldaketa.


Ikasketa algoritmoa berdina da neurona guztientzat, eta jarraian datorren guztia neurona bakar bati aplikatzen zaio isolamenduan. Lehenengo aldagai batzuk definitzen dira:

  • j posizioan dagoen sarrerako bektoreari egiten dio erreferentzia
  • j posizioan dagoen pisu-bektoreari egiten dio erreferentzia
  • neurona sarearen irteera
  • espero den irteera
  • konstante bat da non


Bi ikaskuntza moten desberdintasuna urrats honetan dago. Lehenengo ikaskuntza motarako, ikaskuntza tasa erabiliz, pisuak horrela eguneratuko ditugu:


Bigarren ikaskuntza motarako, ikaskuntza tasa erabili gabe, pisuak horrela eguneratuko ditugu:


Beraz, iterazio bakoitzaren ondoren pisu-bektorea eguneratu egingo da irteera iragarpenarekin bat dator ez denean. Horrela, pausoka iragarpena fintzen joango da. Hainbat iterazio egiteko, aldagai gehiago definitu behar ditugu:

  • . iterazioaren sarrera-bektoreari egiten dio erreferentzia
  • .iterazioaren pisu-bektoreari egiten dio erreferentzia
  • .iterazioaren irteera balioari egiten dio erreferentzia
  • m iterazioko ikaskuntza prozesuari egiten dio erreferentzia


Iterazio bakoitzean, honela eguneratzen da pisu-bektorea:

  • sarrera irteera pare bakoitzeko,
  • hirukotea, eguneratze funtziotik pasako dugu:


Ikaskuntza prozesuan linealki bereizgarria dela esaten da baldin eta balio positibo bat eta pisu-bektore bat existitzen badira non betetzen duten guztientzako.

Novikoff-ek (1962) frogatu zuen ikaskuntza-algoritmoak iterazio kopuru mugatu baten ondoren konbergitzen duela, baldin eta datuak linealki bereizgarriak badira eta errore kopurua honetara mugatuta badaude:

Hala ere, datuak linealki bereizgarriak ez badira, aurreko algoritmo-lerroak ez du bermatzen konbergentzituko duenik.

___________________________________________________________________________________

EJEMPLO

Considere las funciones AND y OR. Estas funciones son linealmente separables y por lo tanto pueden ser aprendidas por un perceptrón.

Kontuan hartu AND eta OR funtzioak. Funtzio horiek linealki bereiz daitezke, eta, beraz, lanpernak ikas ditzake.

La función XOR no puede ser aprendida por un único perceptrón puesto que requiere al menos de dos líneas para separar las clases (0 y 1). Debe utilizarse al menos una capa adicional de perceptrones para permitir su aprendizaje.

XOR funtzioa ezin du lanperna bakar batek ikasi, klaseak bereizteko gutxienez bi lerro behar baititu (0 eta 1). Lanpernen geruza gehigarri bat erabili behar da gutxienez, ikasteko.

Adibidea[aldatu | aldatu iturburu kodea]

OR eta AND funtzioak linealki bereizgarriak direnez, pertzeptroi bat erabili dezakegu horiek ikasteko.

XOR funtzioa ezin da pertzeptroi bakar batekin ikasi klaseak bereizteko gutxienez bi lerro behar baitutu (0 eta 1). Geruza gehiagarri bat behar dugu pertzeptroi batekin ikaskuntza gauzatzeko.












Kate Darling[aldatu | aldatu iturburu kodea]

Katherine Irene Maynard Darling
Bizitza
Jarduerak

Katherine 'Kate' Irene Maynard Darling (1982ko urtarrilaren 27a) suitzar akademikoa da. Teknologiaren inplikazio juridiko eta etikoetan lan egiten du. 2019tik aurrera, MIT Media Laborategian ikerketako espezialista da. [1][2][3]

ITZULTZAILEA: Katherine 'Kate' Irene Maynard Darling' (1982ko urtarrilaren 27a) Tokioko akademikoa da. Teknologiaren ondorio juridiko eta etikoetan lan egiten du. 2019tik aurrera, [[MIT Media Lab]ko ikerketan aditua da.

Ibilbide akademikoa[aldatu | aldatu iturburu kodea]

EE.UU. jaio zen baina, Basilea, Suitzan hazi zen. 2014. urtean, Copyright and new technologies: theoretical and empirical analysis of copyright transfers and content production incentives lana ETH Zürich-en bukatu ondoren, Darling EE.UU-ra itzuli zen, Harvardeko Zuzenbide Eskolan roboten etikari buruzko ikastaro bat irakasteko Lawrence Lessigekin. [1] Darlingek, roboten etikari buruzko ikastaroan, legeak eta robotikak elkarrekin nola lan egiten duten irakasten du. Hala ere, arreta nagusia robotikaren inguruko arazo juridiko eta sozialetan jartzen du. [4] Kate Darlingek Harvard Berkman Klein Zentroa Internet eta Gizartearentzat,[5], Yale Gizarte Proiektua [1] eta Zuzenbide- eta ekonomia-zentroa [6] izeneko proiektuetan lan egin du.

ITZULTZAILEA: EE.UU. baina Basilean, Suitzan, hazi zen. Darlingek Basileako Unibertsitateko Ekonomia eta Zuzenbideko graduak ikasi zituen.Copyright and new technologies: autore-eskubideen transferentzien azterketa teorikoa eta enpirikoa eta edukien ekoizpenerako pizgarriak ETH Zurich-en izenburuko hitzaldia amaitu ondoren, Darling EE.UU-ra itzuli zen, Harvardeko Zuzenbide Eskolan roboten etikari buruzko ikastaro bat irakasteko Lawrence Lessig-ekin. Darlingen etika robotikoari buruzko ikastaroan, legeak eta robotikak elkarrekin nola lan egiten duten ikusiko dugu. Hala ere, robotikaren inguruko arazo juridiko eta sozialetan jartzen du arreta.

Darlingek Middlebury izeneko unibertsitatean doktoregoa egin zuen, ohorezko doktoregoa lortuz zientzietan. [7][8] Darlingek giza eta roboten arteko elkarrekintzari buruzko zenbait lan argitaratu ditu. Haren tesian, autore-eskubideen transferentziari buruz hitz egin zuen.[9][10] Mark T Banner saria jaso zuen Intellectual Property kategorian.

ITZULTZAILEA: Darling-ek ohorezko doktoretza du Middlebury College-ko zientzietan.[7][8] Darling-ek lan akademikoak argitaratu ditu, besteak beste, giza eta robot arteko elkarreraginari buruz eta, tesian, autore-eskubideen transferentziari buruz. Mark T Banner saria jaso zuen jabetza intelektualean.


Erreferentziak[aldatu | aldatu iturburu kodea]

  1. a b c (Ingelesez) «Bio» Kate Darling (Noiz kontsultatua: 2023-12-01).
  2. «Person Overview ‹ Kate Darling» MIT Media Lab (Noiz kontsultatua: 2023-12-01).
  3. «The People’s Bot: Robotic telepresence for the public good - Robohub» robohub.org (Noiz kontsultatua: 2023-12-01).
  4. «Person Overview ‹ Kate Darling» MIT Media Lab (Noiz kontsultatua: 2023-12-01).
  5. (Ingelesez) «Kate Darling | Berkman Klein Center» cyber.harvard.edu 2020-03-24 (Noiz kontsultatua: 2023-12-01).
  6. (Ingelesez) «Former Members» lawecon.ethz.ch (Noiz kontsultatua: 2023-12-01).
  7. (Ingelesez) Anonymous. (2017-05-28). «Class of 2017 Celebrates Commencement | Middlebury News and Announcements» www.middlebury.edu (Noiz kontsultatua: 2023-12-01).
  8. (Ingelesez) Team, The ALU. (2017-05-28). «ALU Founder Receives Honorary Doctorate from Middlebury College, Vermont, USA» ALU (Noiz kontsultatua: 2023-12-01).
  9. Darling, Kate; Nandy, Palash; Breazeal, Cynthia. (2015-08). «Empathic concern and the effect of stories in human-robot interaction» 2015 24th IEEE International Symposium on Robot and Human Interactive Communication (RO-MAN): 770–775.  doi:10.1109/ROMAN.2015.7333675. (Noiz kontsultatua: 2023-12-01).
  10. (Ingelesez) Darling, Maynard; Irene, Katherine. (2014). Copyright and new technologies: theoretical and empirical analysis of copyright transfers and content production incentives. ETH Zurich (Noiz kontsultatua: 2023-12-01).

Kanpo-loturak[aldatu | aldatu iturburu kodea]

  1. Maynard Darling, Katherine Irene. (2014). Thesis final. .