﻿WEBVTT

1
00:00:00.080 --> 00:00:03.760
<c.vtt_green>La inteligencia artificial
ya no es el futuro, es el presente</c>

2
00:00:03.800 --> 00:00:07.040
<c.vtt_green>y puede transformar muchos aspectos
de nuestra sociedad.</c>

3
00:00:07.080 --> 00:00:08.720
<c.vtt_green>Hoy comenzamos nueva sección</c>

4
00:00:08.760 --> 00:00:10.440
<c.vtt_green>para tratar
uno de los grandes temas</c>

5
00:00:10.480 --> 00:00:11.560
<c.vtt_green>de nuestro tiempo.</c>

6
00:00:11.600 --> 00:00:15.040
<c.vtt_green>Y para profundizar en esta aventura
nos acompaña Luz Rello,</c>

7
00:00:15.080 --> 00:00:16.280
<c.vtt_green>doctora de Informática</c>

8
00:00:16.320 --> 00:00:18.400
<c.vtt_green>e investigadora
en el IE University.</c>

9
00:00:18.440 --> 00:00:20.680
<c.vtt_green>Muy buenos días, Luz.
Muy buenos días, Fede.</c>

10
00:00:20.720 --> 00:00:23.080 L:61%
<c.vtt_green>Bienvenida
y menuda aventura tenemos, ¿eh?</c>

11
00:00:23.120 --> 00:00:26.200
Sí, sí. Además es que,
bueno, como has dicho,

12
00:00:26.240 --> 00:00:30.200 L:61%
ya es presente, presentísimo
y está en todos los ámbitos.

13
00:00:30.240 --> 00:00:32.960
<c.vtt_green>Eso te iba a preguntar,
porque evidentemente ha venido</c>

14
00:00:33.000 --> 00:00:35.960
<c.vtt_green>para quedarse,
creo que lo tenemos todos claro,</c>

15
00:00:36.000 --> 00:00:38.520
<c.vtt_green>pero es verdad que está
en muchísimos ámbitos</c>

16
00:00:38.560 --> 00:00:42.120
<c.vtt_green>de la sociedad.
Sí, aún estoy esperando</c>

17
00:00:42.160 --> 00:00:45.120
al historiador que nos diga
que hemos cambiado de era.

18
00:00:45.160 --> 00:00:48.040
Porque realmente el impacto

19
00:00:48.080 --> 00:00:52.960
que está teniendo en educación,
en salud, en ámbitos

20
00:00:53.000 --> 00:00:57.240
que ni los propios investigadores
llegamos a pensar

21
00:00:57.280 --> 00:00:59.720
que podría haber tenido
como, yo qué sé, en joyería.

22
00:00:59.760 --> 00:01:03.560
Imagínate tus anillos,
tus gafas con IA.

23
00:01:03.600 --> 00:01:05.360
Es que está en todos los sitios.

24
00:01:05.400 --> 00:01:07.640 L:61%
Y yo creo
que el impacto está siendo...

25
00:01:07.680 --> 00:01:11.720 L:61%
más que algunos experimentos,
perdona, que algunos inventos

26
00:01:11.760 --> 00:01:13.480 L:61%
que hubo
en la Revolución Industrial.

27
00:01:13.520 --> 00:01:15.440
Estamos viviendo otra revolución.

28
00:01:15.480 --> 00:01:17.120
<c.vtt_green>Fíjate que dices lo de las gafas,</c>

29
00:01:17.160 --> 00:01:19.760
<c.vtt_green>hasta ahí puedo llegar,
pero que en joyas</c>

30
00:01:19.800 --> 00:01:23.920
<c.vtt_green>haya inteligencia artificial
es algo casi que se nos escapa.</c>

31
00:01:23.960 --> 00:01:25.800
Sí, pues sí, pues hay.

32
00:01:25.840 --> 00:01:29.240
Hay departamentos investigando

33
00:01:29.280 --> 00:01:32.840
y desarrollando aplicaciones en eso.

34
00:01:32.880 --> 00:01:34.360
<c.vtt_green>Y también en otros ámbitos,</c>

35
00:01:34.400 --> 00:01:37.880
<c.vtt_green>porque creo
que es muy importante la relación</c>

36
00:01:37.920 --> 00:01:40.520
<c.vtt_green>entre la inteligencia artificial
y la salud mental.</c>

37
00:01:41.160 --> 00:01:43.520
Sí, es curioso

38
00:01:44.920 --> 00:01:47.400
porque a priori se tiende a pensar

39
00:01:47.440 --> 00:01:50.160
que el uso excesivo

40
00:01:51.240 --> 00:01:53.880
de, bueno, ya no digo de IA,
sino de redes sociales,

41
00:01:53.920 --> 00:01:56.680
de tecnología, puede afectar

42
00:01:56.720 --> 00:01:58.760
de manera negativa
a la salud mental.

43
00:01:58.800 --> 00:02:01.720
Sin embargo, hay
mucha investigación desde hace años

44
00:02:01.760 --> 00:02:03.560
y aplicaciones prácticas

45
00:02:03.600 --> 00:02:06.040
que lo que hacen
es lo contrario, o sea,

46
00:02:06.080 --> 00:02:08.880
lo que buscan
es ayudar a esa salud mental.

47
00:02:08.919 --> 00:02:11.400
Y se ha aplicado
desde el punto de vista

48
00:02:11.440 --> 00:02:13.480
de investigación,
de vista de aplicaciones,

49
00:02:13.520 --> 00:02:16.120
para evitar riesgo de depresión

50
00:02:16.160 --> 00:02:18.640
o para evitar riesgo de suicidio.

51
00:02:19.080 --> 00:02:22.680
<c.vtt_green>¿Y en qué consiste? ¿Cómo funcionan
algunas de estas aplicaciones?</c>

52
00:02:22.720 --> 00:02:27.480
Pues mira, quizás
el primer estudio,

53
00:02:27.520 --> 00:02:30.960
el primer artículo científico
que hizo una meta-review

54
00:02:31.000 --> 00:02:33.400
de los diferentes, es del 2019,

55
00:02:33.440 --> 00:02:36.000
cinco años y ya mucho antes.

56
00:02:36.040 --> 00:02:40.440
Y ahí una de las primeras

57
00:02:40.480 --> 00:02:42.960
aproximaciones que vieron
que tenía éxito,

58
00:02:43.000 --> 00:02:46.880
que mejoraba los síntomas
de depresión de estudiantes,

59
00:02:46.920 --> 00:02:50.440
fue un agente conversacional,
o sea lo que viene a ser un chatbot,

60
00:02:50.480 --> 00:02:52.280
pero claro,
un chatbot de hace tiempo,

61
00:02:52.320 --> 00:02:54.840
de primera generación,
ni siquiera como los de ahora,

62
00:02:54.880 --> 00:02:59.800
que son ya, vamos, increíbles, ¿no?
Que lo que hacía es que, bueno,

63
00:02:59.840 --> 00:03:01.440
estaba entrenado

64
00:03:01.480 --> 00:03:05.440
como un terapeuta
cognitivo-conductual,

65
00:03:05.480 --> 00:03:07.920
y te preguntaba a diario
cómo te encontrabas.

66
00:03:07.960 --> 00:03:09.920
Hacía pequeñas conversaciones
a diario

67
00:03:09.960 --> 00:03:14.600
y en función de lo que respondías,
también te daba recursos de vídeos,

68
00:03:14.640 --> 00:03:16.520
te hablaba de salud mental.

69
00:03:17.880 --> 00:03:19.200
Y la primera investigación

70
00:03:19.240 --> 00:03:23.040
se hizo con 70 estudiantes.

71
00:03:23.080 --> 00:03:25.160
Hicieron un estudio,

72
00:03:25.200 --> 00:03:26.520
esto fue en Estados Unidos,

73
00:03:26.880 --> 00:03:30.560
un ensayo controlado aleatorio,

74
00:03:30.600 --> 00:03:33.560
y vieron que esos estudiantes,
que eran universitarios,

75
00:03:33.600 --> 00:03:36.280
tenían menos síntomas de depresión.

76
00:03:36.320 --> 00:03:40.760
Luego esto se ha llevado a atletas,
a población más senior,

77
00:03:40.800 --> 00:03:43.680
que en el caso de la soledad
está viendo que puede tener

78
00:03:43.720 --> 00:03:47.800
un impacto positivo poder hablar

79
00:03:47.840 --> 00:03:49.480
aunque sea con un chatbot.

80
00:03:49.520 --> 00:03:53.880
Y, bueno, si esto lo aplicas,
imagínate, dentro del ámbito...

81
00:03:53.920 --> 00:03:56.720
Por supuesto, esto no sustituye
a un profesional.

82
00:03:57.400 --> 00:04:00.560
Pero esto puede ser positivo
si lo aplicas, por ejemplo,

83
00:04:00.600 --> 00:04:04.920
en el ámbito universitario,
porque con eso puedes detectar,

84
00:04:04.960 --> 00:04:08.120
antes de que llegue
a mayores, riesgos de,

85
00:04:08.160 --> 00:04:12.240
por ejemplo, depresión o riesgo
de depresión que lleva a suicidio.

86
00:04:12.280 --> 00:04:14.600
Son de las primeras aproximaciones
que ha habido.

87
00:04:14.640 --> 00:04:17.399
Y luego ha habido más.
¿Te cuento más?

88
00:04:17.440 --> 00:04:19.240
<c.vtt_green>Claro, por supuesto.
Estaba pensando</c>

89
00:04:19.279 --> 00:04:22.400
<c.vtt_green>en esos profesionales
de la psicología que, claro,</c>

90
00:04:22.440 --> 00:04:26.320
<c.vtt_green>pueden, no sé
si llegar a ver que realmente</c>

91
00:04:26.360 --> 00:04:29.280
<c.vtt_green>la inteligencia artificial
se cuele demasiado en su profesión,</c>

92
00:04:29.320 --> 00:04:32.000
<c.vtt_green>pero, como dices,
en ningún caso podría sustituir</c>

93
00:04:32.040 --> 00:04:35.400
<c.vtt_green>a una persona física.
Pues yo creo que al contrario,</c>

94
00:04:35.440 --> 00:04:37.240
yo creo que está dando valor,
¿sabes?

95
00:04:37.280 --> 00:04:40.080
Porque está llevando
la psicología a algo masivo.

96
00:04:40.120 --> 00:04:43.480
Antes iban al psicólogo
creo que muchas menos personas,

97
00:04:43.520 --> 00:04:46.360
esto está haciendo
que muchas más personas

98
00:04:46.400 --> 00:04:49.560
estén expuestas
a algo parecido, pero, o sea,

99
00:04:49.600 --> 00:04:54.080
está abriendo la psicología
al público masivo, ¿no?

100
00:04:54.120 --> 00:04:56.240
Y está poniendo en valor

101
00:04:56.280 --> 00:04:59.280
lo que una máquina
no puede hacer, que es la empatía,

102
00:04:59.320 --> 00:05:02.320
que es esa personalización
total a una historia clínica,

103
00:05:02.360 --> 00:05:04.880
eso hoy en día
no se puede hacer, ¿no?

104
00:05:05.920 --> 00:05:07.240
<c.vtt_green>Sí, lo que me decías, ¿no?</c>

105
00:05:07.280 --> 00:05:09.640
<c.vtt_green>Hablabas de esa detección
de la depresión,</c>

106
00:05:09.680 --> 00:05:11.840
<c.vtt_green>no sé si de intentos
de suicidio incluso,</c>

107
00:05:11.880 --> 00:05:13.680
<c.vtt_green>¿se podría hacer
de manera automática?</c>

108
00:05:13.720 --> 00:05:18.360
Sí, te voy a hablar
primero de depresión

109
00:05:18.400 --> 00:05:19.960
y luego suicidio.

110
00:05:20.000 --> 00:05:22.840
Para la depresión
hay una investigación, hay muchas,

111
00:05:22.880 --> 00:05:25.400
y una la estamos haciendo
nosotros desde IE

112
00:05:25.440 --> 00:05:27.440
con esas Seeds ADepT

113
00:05:27.480 --> 00:05:31.320
y en colaboración también
con la Universidad Politécnica

114
00:05:31.360 --> 00:05:33.280
de Madrid, con Alberto Urueña.

115
00:05:33.320 --> 00:05:35.160
Entonces,
ahí lo que estamos viendo es,

116
00:05:35.200 --> 00:05:36.640
con datos de móvil,

117
00:05:36.680 --> 00:05:39.680
si puedes detectar
riesgo de depresión. ¿Vale?

118
00:05:39.720 --> 00:05:43.120
Entonces, claro,
ahora mismo los móviles

119
00:05:43.160 --> 00:05:46.360
es que los llevamos
siempre con nosotros, ¿no?

120
00:05:46.400 --> 00:05:49.240
Y al final son
como una extensión nuestra, ¿no?

121
00:05:49.280 --> 00:05:51.400
O sea, imagínate, si tú estás feliz,

122
00:05:51.440 --> 00:05:53.200
vas a utilizar el móvil
de una manera

123
00:05:53.240 --> 00:05:56.080
y si tú estás deprimido
vas a utilizar el móvil de otra.

124
00:05:56.120 --> 00:05:59.640
Al final es
como una manifestación más tuya,

125
00:05:59.680 --> 00:06:01.480
igual que tu cerebro
se puede observar:

126
00:06:01.520 --> 00:06:03.440
"Si estás deprimido,
tu cerebro está así;

127
00:06:03.480 --> 00:06:05.440
si estás deprimido,
tu móvil es así", ¿no?

128
00:06:05.480 --> 00:06:08.200
Entonces, con un conjunto de datos

129
00:06:08.240 --> 00:06:10.160
que fueron recogidos
durante la pandemia,

130
00:06:10.200 --> 00:06:14.240
los recogió el INE,
Instituto Nacional de Estadística,

131
00:06:14.280 --> 00:06:16.520
las personas
instalaban una aplicación

132
00:06:16.560 --> 00:06:20.600
y aceptaban que se recogieran
ciertos datos

133
00:06:20.640 --> 00:06:22.040
de usos de aplicaciones.

134
00:06:22.080 --> 00:06:25.840
Lo que vimos es que el uso
de ciertas aplicaciones,

135
00:06:25.880 --> 00:06:28.440
también en función
de cómo usas unas aplicaciones

136
00:06:28.480 --> 00:06:31.200
u otras, puedes sacar los patrones
de sueño de una persona,

137
00:06:31.240 --> 00:06:34.280
porque al final cuando no usas
el móvil es cuando estás dormido.

138
00:06:34.920 --> 00:06:38.480
Entonces, con todo eso,

139
00:06:38.520 --> 00:06:42.240
y eso unido a datos demográficos,
sí, son resultados muy preliminares,

140
00:06:43.600 --> 00:06:46.000
pero sí hemos visto
que se puede detectar

141
00:06:46.040 --> 00:06:48.840
el riesgo de depresión.

142
00:06:50.280 --> 00:06:53.640
Luego hay otro proyecto,

143
00:06:53.680 --> 00:06:56.080
que este además lo dirige
una investigadora

144
00:06:56.120 --> 00:06:58.520
que habéis entrevistado
en "La aventura del Saber",

145
00:06:58.560 --> 00:07:02.600
se llama Ana Freire,
y el proyecto se llama "Stop",

146
00:07:02.640 --> 00:07:06.560
y ellos lo que hacen,
esto ya es para suicidio,

147
00:07:06.600 --> 00:07:08.280
para riesgo de suicidio,

148
00:07:08.320 --> 00:07:12.280
ellos lo que hacen es que toman
datos de redes sociales,

149
00:07:12.320 --> 00:07:14.080
de cómo es el texto que tú posteas,

150
00:07:14.120 --> 00:07:16.200
de cómo son las imágenes
que tú pones,

151
00:07:16.240 --> 00:07:20.480
y luego también
con datos poblacionales,

152
00:07:20.520 --> 00:07:23.000
pueden ver riesgo de suicidio.

153
00:07:23.040 --> 00:07:25.680
Pusieron a disposición un chat,
un teléfono,

154
00:07:25.720 --> 00:07:27.800
que además
ha crecido mucho en usuarios.

155
00:07:27.840 --> 00:07:30.080
Pasaron de 150 a 1.500,

156
00:07:30.120 --> 00:07:33.360
o sea, por 10, del 2003 al 2024.

157
00:07:33.400 --> 00:07:36.280
Y esta es una investigación
que se está haciendo en España,

158
00:07:36.320 --> 00:07:38.400
se están haciendo varias.

159
00:07:38.440 --> 00:07:42.280
Entonces, claro, al final la IA

160
00:07:43.400 --> 00:07:48.040
también está casi salvando vidas.

161
00:07:49.760 --> 00:07:51.320
Y yo creo que esto es una cosa

162
00:07:51.360 --> 00:07:53.720
muy optimista para pensarla.

163
00:07:53.760 --> 00:07:56.080
<c.vtt_green>Y además te iba a preguntar
precisamente por eso,</c>

164
00:07:56.120 --> 00:07:59.400
<c.vtt_green>muchas veces quizás criticamos
o denostamos tanto</c>

165
00:07:59.440 --> 00:08:02.120
<c.vtt_green>pues eso,
las aplicaciones, los móviles</c>

166
00:08:02.160 --> 00:08:04.960
<c.vtt_green>y también hay que reconocer
esa parte esperanzadora</c>

167
00:08:05.000 --> 00:08:07.360
<c.vtt_green>y optimista que tiene, ¿no?
Por lo que cuentas.</c>

168
00:08:07.400 --> 00:08:08.840
Sí, sí, sí, la tiene.

169
00:08:08.880 --> 00:08:12.480
En medicina o en otros ámbitos ya,
vamos, increíble, ¿no?

170
00:08:12.520 --> 00:08:14.560
Por ejemplo,
en el ámbito de la inclusión.

171
00:08:14.600 --> 00:08:17.640
Ahora mismo lo que está habiendo
es un boom brutal

172
00:08:17.680 --> 00:08:21.280
en lo que sería el lenguaje,
en un área que se llama

173
00:08:21.320 --> 00:08:24.520
Procesamiento de Lenguaje Natural,
que es la intersección

174
00:08:24.560 --> 00:08:27.720
entre inteligencia artificial
y lingüística.

175
00:08:27.760 --> 00:08:30.200
Este área, este boom
que está habiendo ahora

176
00:08:30.240 --> 00:08:33.600
y que se ha traducido
en aplicaciones masivas

177
00:08:33.640 --> 00:08:37.880
como podría ser, bueno,
pues ChatGPT, Alexa, Siri...

178
00:08:37.919 --> 00:08:40.039
todos estos
agentes conversacionales,

179
00:08:40.080 --> 00:08:42.679
el traductor de Google...
todo esto que es como...

180
00:08:43.720 --> 00:08:47.520
pero claro, esto es,
bueno, a nivel global, vale,

181
00:08:47.560 --> 00:08:49.480
pero si tú ves, por ejemplo,

182
00:08:49.520 --> 00:08:52.680
personas con diferentes capacidades,

183
00:08:53.720 --> 00:08:56.520
las aplicaciones
de procesamiento de lenguaje natural

184
00:08:56.560 --> 00:09:00.360
sí que abren
una oportunidad increíble

185
00:09:00.400 --> 00:09:01.960
para la inclusión,

186
00:09:02.000 --> 00:09:06.000
pero increíble, o sea,
sin ningún tipo de precedente.

187
00:09:06.520 --> 00:09:07.720
Por ejemplo,

188
00:09:08.240 --> 00:09:12.080
una persona que sea ciega,

189
00:09:12.120 --> 00:09:13.920
que sea invidente,

190
00:09:14.240 --> 00:09:16.440
hay lectores de pantalla

191
00:09:16.480 --> 00:09:18.680
que te leen las pantallas
de manera automática.

192
00:09:18.720 --> 00:09:23.200
Se lleva haciendo desde los años 90,
pero ahora se hace muchísimo mejor,

193
00:09:23.240 --> 00:09:25.920
pero muchísimo mejor,
ya estamos a otro nivel.

194
00:09:25.960 --> 00:09:28.400
Por ejemplo,
si tienes problemas auditivos,

195
00:09:28.440 --> 00:09:31.080
antes necesitabas

196
00:09:31.120 --> 00:09:33.800
a una persona que te tradujera

197
00:09:33.840 --> 00:09:36.680
lenguaje de signos, y esto
era muy costoso y mucho tiempo,

198
00:09:36.720 --> 00:09:39.880
pues ahora eso se puede hacer
de manera automática.

199
00:09:39.920 --> 00:09:41.600
Ahora mismo, de manera automática,

200
00:09:41.640 --> 00:09:43.840
podríamos tener un traductor
para las personas

201
00:09:43.880 --> 00:09:46.640
que no nos pueden estar leyendo
los labios.

202
00:09:49.960 --> 00:09:52.040
Es que las posibilidades
son increíbles.

203
00:09:52.080 --> 00:09:55.320
Por ejemplo, para personas

204
00:09:55.360 --> 00:09:58.240
que tengan
dificultades de comprensión,

205
00:09:58.280 --> 00:10:00.400
por diferentes causas,

206
00:10:00.440 --> 00:10:03.040
porque hay
muchísimas causas para eso,

207
00:10:03.080 --> 00:10:05.920
se puede simplificar el lenguaje

208
00:10:05.960 --> 00:10:07.240
de manera automática.

209
00:10:07.280 --> 00:10:09.880
Ahora mismo, Wikipedia...
hay otra cosa

210
00:10:09.920 --> 00:10:11.360
que se llama Wikipedia Simple.

211
00:10:11.400 --> 00:10:13.880
Está en paralelo y existe,
es como un mundo paralelo

212
00:10:13.920 --> 00:10:16.560
que está ahí
y está hecho para eso,

213
00:10:16.600 --> 00:10:19.080
para diferentes...

214
00:10:21.800 --> 00:10:23.320
habilidades intelectuales,

215
00:10:23.360 --> 00:10:26.160
para que todo el mundo
pueda acceder a la información.

216
00:10:26.200 --> 00:10:31.160
¿Qué más? Pues personas
que tengan parálisis.

217
00:10:31.200 --> 00:10:33.800
Entonces, para poderse comunicar,

218
00:10:33.840 --> 00:10:37.720
igual que hace un tiempo
era casi imposible,

219
00:10:37.760 --> 00:10:41.040
se llevan desarrollando
desde hace décadas,

220
00:10:41.080 --> 00:10:44.320
pero ahora con este boom
estamos hablando ya de otro nivel.

221
00:10:45.720 --> 00:10:50.160
Técnicas de comunicación aumentada
y alternativa

222
00:10:50.200 --> 00:10:53.520
para poderte comunicar
si no puedes hablar.

223
00:10:53.560 --> 00:10:57.480
Entonces, bueno, o sea,

224
00:10:57.520 --> 00:10:59.720
¿cómo la IA está afectando al mundo?

225
00:10:59.760 --> 00:11:01.760
Sí, está afectando muchísimo

226
00:11:01.800 --> 00:11:04.320
desde un punto de vista
multidimensional.

227
00:11:04.360 --> 00:11:08.880
Y ya creo que estamos en el punto

228
00:11:08.920 --> 00:11:11.800
de no solamente pensar
solucionar problemas,

229
00:11:11.840 --> 00:11:13.440
sino que yo creo que ya estamos

230
00:11:13.480 --> 00:11:15.480
en un punto
en el que casi podemos pensar

231
00:11:15.520 --> 00:11:17.120
en prevenir problemas.

232
00:11:17.160 --> 00:11:20.440
Y yo creo que eso es fascinante

233
00:11:20.480 --> 00:11:24.600
y esperanzador y no tengo palabras.

234
00:11:24.640 --> 00:11:26.160
<c.vtt_green>Y con todo esto que dices,</c>

235
00:11:26.200 --> 00:11:28.440
<c.vtt_green>y no sé si como aviso
para navegantes</c>

236
00:11:28.480 --> 00:11:30.760
<c.vtt_green>para estas próximas visitas
que vamos a tener,</c>

237
00:11:30.800 --> 00:11:34.480
<c.vtt_green>¿cómo ves el futuro?
Pues yo lo veo optimista.</c>

238
00:11:34.920 --> 00:11:36.240
Yo lo veo optimista.

239
00:11:36.280 --> 00:11:39.760
Si nosotros seguimos aquí después
de miles de años de historia,

240
00:11:39.800 --> 00:11:42.760
es que al final como humanidad
no lo hemos hecho demasiado mal.

241
00:11:42.800 --> 00:11:46.400
Entonces, es verdad
que tenemos muchos problemas

242
00:11:46.440 --> 00:11:49.280
y los vamos viendo
todos los días en los medios,

243
00:11:49.320 --> 00:11:51.080
pero yo creo que es optimista.

244
00:11:51.120 --> 00:11:56.080
Yo creo que en otras ocasiones
hemos tenido también,

245
00:11:56.680 --> 00:11:59.520
bueno, momentos
de mucha revolución

246
00:11:59.560 --> 00:12:01.720
y momentos en los que pensábamos

247
00:12:01.760 --> 00:12:03.320
que todo se podía ir al traste.

248
00:12:03.360 --> 00:12:04.720
Nos ha pasado ya antes,

249
00:12:04.760 --> 00:12:07.560
si ves la prensa
de la Revolución Industrial es como:

250
00:12:07.600 --> 00:12:11.080
"Las máquinas
van a terminar con todo",

251
00:12:11.120 --> 00:12:15.640
o la prensa
de avances de algunas armas.

252
00:12:15.680 --> 00:12:19.480
Ya ha habido más momentos
en los que hemos pensado que...

253
00:12:19.520 --> 00:12:23.440
Yo creo que como humanidad
somos capaces de pensar y decir:

254
00:12:23.480 --> 00:12:25.720
"Ahora vamos a utilizar esto
a nuestro favor,

255
00:12:25.760 --> 00:12:29.600
que para eso somos inteligentes".
<c.vtt_green>Hablabas antes de esos dispositivos</c>

256
00:12:29.640 --> 00:12:31.120
<c.vtt_green>de Alexa y Siri.</c>

257
00:12:31.160 --> 00:12:33.120
<c.vtt_green>¿Crees que,
no lo digo como una solución</c>

258
00:12:33.160 --> 00:12:36.400
<c.vtt_green>a los problemas que existen
en España de soledad no deseada</c>

259
00:12:36.440 --> 00:12:38.640
<c.vtt_green>o de soledad al fin y al cabo,</c>

260
00:12:38.680 --> 00:12:40.600
<c.vtt_green>pero que sí puede ser
en un momento dado</c>

261
00:12:40.640 --> 00:12:42.200
<c.vtt_green>un buen acompañante?</c>

262
00:12:42.240 --> 00:12:44.920
De eso se está haciendo
investigación desde hace tiempo

263
00:12:44.960 --> 00:12:48.040
en muchos países,
sobre todo en Japón.

264
00:12:48.080 --> 00:12:50.720
En Japón
se ha llevado a investigación

265
00:12:50.760 --> 00:12:52.880
cómo diferentes...

266
00:12:55.160 --> 00:12:56.600
agentes conversacionales,

267
00:12:56.640 --> 00:12:58.560
que los puedes poner
de cualquier forma,

268
00:12:58.600 --> 00:13:00.560
puede ser un bichito así,
puede ser una...

269
00:13:00.600 --> 00:13:02.120
Es un agente conversacional,

270
00:13:02.160 --> 00:13:04.600
un modelo
de inteligencia artificial detrás,

271
00:13:04.640 --> 00:13:08.640
que lo que te da es la respuesta,
pues, estadísticamente,

272
00:13:08.680 --> 00:13:12.200
más probable para esa situación,
que no sabe lo que te está diciendo,

273
00:13:12.240 --> 00:13:14.680
o sea, simplemente
te está dando estadísticamente

274
00:13:14.720 --> 00:13:17.800
lo más probable, pero eso en Japón

275
00:13:17.840 --> 00:13:21.840
se está llevando desde...

276
00:13:22.200 --> 00:13:23.800
Casi desde que empecé el doctorado

277
00:13:23.840 --> 00:13:25.680
está haciendo investigación
sobre eso,

278
00:13:25.720 --> 00:13:28.720 L:69%
estamos hablando ya de casi 15 años.

279
00:13:31.360 --> 00:13:34.600 L:61%
Y en Estados Unidos, por ejemplo,
se están haciendo...

280
00:13:34.640 --> 00:13:36.600 L:69%
creo que son de Amazon los cursos,

281
00:13:36.640 --> 00:13:38.920
para explicar
a las personas más mayores,

282
00:13:38.960 --> 00:13:40.880
a su población más senior,

283
00:13:43.240 --> 00:13:46.640 L:61%
que esos chatbots que tienen en casa
que no son de verdad.

284
00:13:46.680 --> 00:13:49.120 L:69%
Son cursos de divulgación,

285
00:13:49.160 --> 00:13:52.800
decir: "Vale, parece que sí..."
<c.vtt_green>Pero no.</c>

286
00:13:52.840 --> 00:13:54.880
También
hay que concienciar sobre eso.

287
00:13:54.920 --> 00:13:57.920
Pero vamos, yo el día de mañana,

288
00:13:58.280 --> 00:14:00.480
yo sí me veo en una...

289
00:14:00.920 --> 00:14:02.400
y encantada en la vida,

290
00:14:02.440 --> 00:14:05.760
en un contexto de futuro
en el que pueda hablar

291
00:14:05.800 --> 00:14:09.080
no solamente con ella,
sino a lo mejor con amigos míos

292
00:14:09.120 --> 00:14:10.800
a distancia o con, no sé,

293
00:14:10.840 --> 00:14:14.120
en otro tipo de circunstancias.

294
00:14:14.160 --> 00:14:16.080
Ojalá que sea positiva, sí.

295
00:14:16.120 --> 00:14:19.160
<c.vtt_green>Ojalá que sí. Luz, bueno,
bienvenida a esta nueva aventura,</c>

296
00:14:19.200 --> 00:14:21.440
<c.vtt_green>a esta sección,
y seguiremos hablando,</c>

297
00:14:21.480 --> 00:14:24.120
<c.vtt_green>y por lo que dices e intuyo,
en clave positiva.</c>

298
00:14:24.160 --> 00:14:27.040
Sí, eso sí, por favor.
Del otro hay mucho.

299
00:14:27.080 --> 00:14:29.840
(RÍE) Eso sí.
<c.vtt_green>Pues muchísimas gracias</c>

300
00:14:29.880 --> 00:14:31.880
<c.vtt_green>por tu visita y nos vemos pronto.
Gracias, Fede.</c>

301
00:14:31.960 --> 00:14:33.160
Un placer.
<c.vtt_green>Un placer.</c>

