﻿WEBVTT

1
00:00:00.280 --> 00:00:03.080
<c.vtt_yellow>Desinformación,
bulos, discursos de odio,</c>

2
00:00:03.120 --> 00:00:06.440
<c.vtt_yellow>perpetuación de estereotipos...
todo esto está en Internet,</c>

3
00:00:06.480 --> 00:00:09.440
<c.vtt_yellow>en las redes sociales
y, desgraciadamente, niños,</c>

4
00:00:09.480 --> 00:00:12.840
<c.vtt_yellow>niñas y adolescentes
están expuestos a ellos.</c>

5
00:00:12.880 --> 00:00:16.160
<c.vtt_yellow>De esto se ocupa el último estudio
de Save the Children,</c>

6
00:00:16.200 --> 00:00:18.400
<c.vtt_yellow>del que vamos a hablar ya
con Catalina Perazzo.</c>

7
00:00:18.440 --> 00:00:20.200 L:61%
<c.vtt_yellow>¿Qué tal, Catalina?
Muy buenos días.</c>

8
00:00:20.240 --> 00:00:22.560 L:61%
Buenos días.
<c.vtt_yellow>Tampoco hay que demonizar</c>

9
00:00:22.600 --> 00:00:26.960 L:61%
<c.vtt_yellow>Internet, ha abierto
el acceso a la información,</c>

10
00:00:27.000 --> 00:00:28.560 L:69%
<c.vtt_yellow>lo ha democratizado,</c>

11
00:00:28.600 --> 00:00:31.640 L:61%
<c.vtt_yellow>pero sí es cierto
que tenemos unos cuantos peligros,</c>

12
00:00:31.680 --> 00:00:34.240 L:61%
<c.vtt_yellow>en Internet y en las redes.
Sí, efectivamente.</c>

13
00:00:34.280 --> 00:00:37.000 L:61%
Al final, Internet,
el entorno digital,

14
00:00:37.040 --> 00:00:40.440 L:61%
es parte de la vida
de todas las personas ahora mismo

15
00:00:40.480 --> 00:00:43.360 L:61%
y los niños y las niñas
también están ahí.

16
00:00:43.680 --> 00:00:46.360
Les hemos invitado
y ahora tenemos que ver

17
00:00:46.400 --> 00:00:50.320
cómo garantizar sus derechos
en este entorno.

18
00:00:50.360 --> 00:00:55.240
La línea que separa lo digital
de lo físico ya no es tan cierta

19
00:00:55.280 --> 00:00:56.960
como pensábamos que era.

20
00:00:57.160 --> 00:01:01.440
<c.vtt_yellow>Tan clara. Dices, están
vulnerando sus derechos,</c>

21
00:01:01.480 --> 00:01:03.800
<c.vtt_yellow>los derechos de los niños
y de los adolescentes.</c>

22
00:01:03.840 --> 00:01:05.880
<c.vtt_yellow>¿Cuáles?
Sí, en este caso,</c>

23
00:01:05.920 --> 00:01:07.880
con este informe,
lo que queríamos era

24
00:01:07.920 --> 00:01:11.200
visibilizar la vulneración
del derecho a la información.

25
00:01:11.240 --> 00:01:14.200
La Convención de Derechos
del Niño reconoce a los niños

26
00:01:14.240 --> 00:01:18.040
y niñas también el derecho
a poder acceder a una información

27
00:01:18.080 --> 00:01:21.520
que sea veraz y que sea de calidad.

28
00:01:21.680 --> 00:01:25.480
Lo que hemos visto en el estudio
hablando con adolescentes,

29
00:01:25.520 --> 00:01:29.080
es que la mayoría están informándose

30
00:01:29.120 --> 00:01:30.640
a través de las redes sociales

31
00:01:30.680 --> 00:01:35.520
y que, además, o no todos saben
identificar una noticia falsa.

32
00:01:35.560 --> 00:01:39.480
Entonces, bueno, hemos analizado
qué tipos de contenidos consumen

33
00:01:39.560 --> 00:01:43.480
y qué tipo de información es
la que está influyendo al final

34
00:01:43.520 --> 00:01:45.240
en el desarrollo de su personalidad,

35
00:01:45.400 --> 00:01:47.640
que es lo que ocurre
durante la adolescencia.

36
00:01:47.680 --> 00:01:50.360
<c.vtt_yellow>Como decías,
uno de los medios principales</c>

37
00:01:50.400 --> 00:01:52.800
<c.vtt_yellow>para informarse
son las redes sociales.</c>

38
00:01:52.840 --> 00:01:54.640
Sí, efectivamente.

39
00:01:54.680 --> 00:01:58.360
O sea, no es que accedan
a los medios tradicionales

40
00:01:58.400 --> 00:02:01.720
a través de internet, sino que son
las propias redes sociales,

41
00:02:01.760 --> 00:02:05.440
por delante de la prensa online
o la televisión

42
00:02:05.480 --> 00:02:08.440
o cualquier
otro medio de información.

43
00:02:08.479 --> 00:02:11.440
Eso sí nos preocupa
también porque al final

44
00:02:12.520 --> 00:02:15.200
solo están consumiendo
un tipo de información

45
00:02:15.240 --> 00:02:18.320
y, además, quienes informan
a través de las redes sociales

46
00:02:18.360 --> 00:02:22.640
no siempre
tienen una formación especializada

47
00:02:22.680 --> 00:02:26.160
o esa capacidad de generar
información que sea veraz.

48
00:02:26.200 --> 00:02:27.760
<c.vtt_yellow>¿Hay diferencia por sexos?</c>

49
00:02:28.720 --> 00:02:31.320
<c.vtt_yellow>¿Hay algunos que confían
más en las redes, menos...?</c>

50
00:02:31.360 --> 00:02:34.680
Sí, efectivamente.
Vemos que los chicos,

51
00:02:34.720 --> 00:02:38.200
sobre todo,
se informan a través de influencers

52
00:02:38.240 --> 00:02:41.480
y, como consumen más contenido
relacionado con el deporte,

53
00:02:41.520 --> 00:02:45.600
los videojuegos y demás,
entonces, ellos sí interactúan

54
00:02:45.640 --> 00:02:48.000
con estas personas

55
00:02:49.280 --> 00:02:51.680
y aunque sí que ellos
manifiestan poder distinguir

56
00:02:51.720 --> 00:02:56.160
si una noticia es falsa,
más que las chicas, bueno,

57
00:02:56.200 --> 00:03:00.280
el porcentaje
sigue siendo bastante bajo.

58
00:03:00.640 --> 00:03:03.320
En el caso de ellas,
sobre todo, consumen Internet

59
00:03:03.400 --> 00:03:06.880
y noticias más
para temas más sociales,

60
00:03:06.920 --> 00:03:10.560
de compras, para informarse
o seguir algún perfil,

61
00:03:10.600 --> 00:03:14.760
pero entonces en ese sentido
tienen menos capacidad para detectar

62
00:03:14.800 --> 00:03:16.720
cuándo una noticia es falsa o no.

63
00:03:16.760 --> 00:03:18.560
<c.vtt_yellow>Claro, uno de los grandes titulares</c>

64
00:03:18.600 --> 00:03:20.880
<c.vtt_yellow>de este estudio es ese,
que los chicos,</c>

65
00:03:20.920 --> 00:03:23.840
<c.vtt_yellow>las chicas tienen problemas
para identificar</c>

66
00:03:23.920 --> 00:03:27.160
<c.vtt_yellow>las noticias falsas,
en un porcentaje bastante alto.</c>

67
00:03:27.200 --> 00:03:29.240
Sí, efectivamente,
estaríamos hablando

68
00:03:29.280 --> 00:03:33.320
casi de un 47, 48 % que dicen

69
00:03:33.360 --> 00:03:36.400
que sí que la podrían identificar,
que no llega ni al 20 %,

70
00:03:36.440 --> 00:03:38.040
y las que dicen que solo a veces.

71
00:03:38.080 --> 00:03:42.040
Y también ahí nos preocupa,
no solo que no sepan identificarlo,

72
00:03:42.080 --> 00:03:45.840
que, además, es algo que nos puede
pasar a una persona adulta,

73
00:03:45.880 --> 00:03:48.640
pero sí que podemos
tener ciertas herramientas

74
00:03:48.680 --> 00:03:50.880
y podríamos dárselas
a ellos y ellas,

75
00:03:50.920 --> 00:03:53.200
sino que, además,
no contrastan la información,

76
00:03:53.240 --> 00:03:54.920
no todos contrastan la información.

77
00:03:54.960 --> 00:03:57.920
Un 45 % más o menos
dice que no la contrasta,

78
00:03:57.960 --> 00:04:01.960
incluso si tiene dudas de si está
delante de una información falsa

79
00:04:02.680 --> 00:04:05.440
o que la contrasta
con personas de su entorno.

80
00:04:05.800 --> 00:04:08.800
Entonces, ahí, si todos se están
informando de la misma manera,

81
00:04:08.840 --> 00:04:11.000
nos preocupa
que al final estén en una burbuja

82
00:04:11.040 --> 00:04:13.720
también de información.
<c.vtt_yellow>Claro, que no salgan de ahí.</c>

83
00:04:14.720 --> 00:04:18.040
<c.vtt_yellow>Los jóvenes están expuestos
a la desinformación en las redes,</c>

84
00:04:18.079 --> 00:04:20.680
<c.vtt_yellow>en Internet, pero también
a los discursos de odio.</c>

85
00:04:20.720 --> 00:04:22.000
Sí, efectivamente.

86
00:04:22.040 --> 00:04:25.160
Lo que vemos es que por un lado
hay discursos de odio

87
00:04:25.200 --> 00:04:27.800
en lo que tiene que ver
con orientación sexual,

88
00:04:28.600 --> 00:04:32.480
con racismo
y vemos mucha cosificación

89
00:04:32.520 --> 00:04:34.760
y hipersexualización
del cuerpo de la mujer,

90
00:04:34.800 --> 00:04:38.880
que son todos discursos
que al final se reproducen,

91
00:04:38.920 --> 00:04:43.040
son estereotipos del mundo físico
que se reproducen en el digital

92
00:04:44.440 --> 00:04:46.400
y sin el filtro que te da

93
00:04:46.440 --> 00:04:48.520
al final el anonimato y demás,

94
00:04:48.560 --> 00:04:52.240
pues también da ese escudo,
parece, para poder seguir

95
00:04:52.280 --> 00:04:54.000
perpetuando este tipo de discursos.

96
00:04:54.040 --> 00:04:57.640
También vemos que hay
mucha dificultad para saber

97
00:04:58.040 --> 00:05:00.200
que un discurso de odio

98
00:05:00.240 --> 00:05:03.680
puede llegar
a dar lugar a un delito,

99
00:05:03.720 --> 00:05:05.400
no lo identifican como un delito.

100
00:05:05.440 --> 00:05:09.320
De hecho, incluso lo veíamos
en nuestro informe anterior,

101
00:05:09.360 --> 00:05:12.440
que hay muchos que no consideran
que deba ser un delito

102
00:05:12.480 --> 00:05:14.000
un discurso de odio.

103
00:05:14.040 --> 00:05:17.560
Entonces, ahí vemos
que todo son carencias al final

104
00:05:17.600 --> 00:05:19.680
de una formación, una educación.

105
00:05:21.360 --> 00:05:23.160
<c.vtt_yellow>Hay otro tema
que es muy preocupante,</c>

106
00:05:23.200 --> 00:05:27.720
<c.vtt_yellow>y es esa influencia
que tienen youtubers,</c>

107
00:05:27.760 --> 00:05:29.800
<c.vtt_yellow>influencers, streamers,</c>

108
00:05:29.840 --> 00:05:34.040
<c.vtt_yellow>y que están marcando un poco
los cánones de belleza,</c>

109
00:05:34.280 --> 00:05:37.200
<c.vtt_yellow>de estilo de vida
de estos niños y adolescentes.</c>

110
00:05:37.240 --> 00:05:42.000
Sí, efectivamente, estamos viendo
que las personas referentes

111
00:05:42.240 --> 00:05:44.320
de la adolescencia de hoy en día,

112
00:05:44.360 --> 00:05:46.640
en gran parte está ocupada

113
00:05:46.680 --> 00:05:49.400
por este perfil de personas.

114
00:05:49.600 --> 00:05:52.400
Y ahí nos preocupa,
porque son los resultados

115
00:05:52.440 --> 00:05:56.120
que hemos visto,
que por un lado se está mostrando

116
00:05:56.480 --> 00:05:59.080
como exitoso un modelo,

117
00:05:59.120 --> 00:06:01.720
por un lado, comercial o económico,

118
00:06:03.280 --> 00:06:07.520
que al final se basa
en mostrar tu vida, tu privacidad,

119
00:06:07.560 --> 00:06:10.240
tu intimidad en Internet.

120
00:06:10.280 --> 00:06:14.720
Y, además, con ciertos mensajes

121
00:06:14.760 --> 00:06:17.920
en algunos casos
y comportamientos que,

122
00:06:18.800 --> 00:06:20.960
para empezar,
que los propios chicos y chicas

123
00:06:21.000 --> 00:06:25.120
no son capaces de identificar
si son correctos o no.

124
00:06:25.320 --> 00:06:28.720
En este sentido, vemos
que sobre todo los chicos

125
00:06:28.920 --> 00:06:31.960
siguen a influencers o youtubers

126
00:06:32.000 --> 00:06:34.960
en tema de videojuegos y de deportes

127
00:06:35.040 --> 00:06:37.080
y que, además,
interactúan mucho con ellos.

128
00:06:37.120 --> 00:06:40.240
Y, luego, las chicas, ellas dicen,

129
00:06:40.920 --> 00:06:43.760
buscan perfiles naturales,
que compartan consejos

130
00:06:43.800 --> 00:06:46.600
y que cuenten cosas de su vida.

131
00:06:47.840 --> 00:06:49.760
Y los problemas que vemos son otros,

132
00:06:49.800 --> 00:06:54.440
porque vemos que lo que promueven
son estilos de vida

133
00:06:54.480 --> 00:06:59.160
que no son reales,
o estereotipos y cánones de belleza

134
00:06:59.200 --> 00:07:03.600
que no son accesibles
para un adolescente.

135
00:07:03.640 --> 00:07:06.880
Que, además,
está todo el rato comparando

136
00:07:06.920 --> 00:07:10.760
y eso hace
que su confianza en sí misma

137
00:07:11.720 --> 00:07:15.800
y su seguridad se vea minada

138
00:07:15.840 --> 00:07:19.160
y esto lleve a comportamientos
que puedan ser de riesgo,

139
00:07:19.200 --> 00:07:20.880
incluso autolesiones.

140
00:07:20.920 --> 00:07:23.400
Entonces, en ese sentido,
sí que es una de las cosas

141
00:07:24.680 --> 00:07:27.120
en las que ahondamos en el estudio.

142
00:07:27.160 --> 00:07:30.360
<c.vtt_yellow>Y las consecuencias aún peor
para las chicas, ¿no?</c>

143
00:07:30.400 --> 00:07:32.040
<c.vtt_yellow>En este sentido.
Sí, efectivamente.</c>

144
00:07:33.000 --> 00:07:36.960
Como decía,
hay mucho tema de seguridad

145
00:07:37.000 --> 00:07:39.120
y de personalidad que va ligado

146
00:07:39.160 --> 00:07:43.400
al consumo de este tipo
de comportamientos, de contenidos,

147
00:07:44.440 --> 00:07:46.600
y también vemos
que hay mucha diferencia

148
00:07:46.640 --> 00:07:50.600
en cómo se comportan
los streamers chicos

149
00:07:50.640 --> 00:07:52.280
y las streamers chicas.

150
00:07:52.320 --> 00:07:56.560
Eso también lo hemos estudiado,
hemos intentado hacer el análisis.

151
00:07:56.600 --> 00:07:59.200
Hemos hecho todo un análisis
de redes sociales

152
00:08:00.080 --> 00:08:03.720
que estudia ver, por un lado,
qué tipo de contenidos generan

153
00:08:03.760 --> 00:08:07.320
y, por otro,
cómo se denomina la comunidad.

154
00:08:07.360 --> 00:08:12.160
O sea, cómo se comporta la comunidad
de seguidores de esos contenidos.

155
00:08:12.200 --> 00:08:15.600
Y ahí hemos estudiado,
por un lado, Twitch y, por otro,

156
00:08:15.640 --> 00:08:17.200
otro Twitter y hemos visto.

157
00:08:17.240 --> 00:08:18.960
Entonces, en el caso de los chicos

158
00:08:19.000 --> 00:08:23.960
vemos que hay mucho lenguaje

159
00:08:24.520 --> 00:08:28.240
que se modifica
para poder utilizar lenguaje

160
00:08:29.120 --> 00:08:30.320
que no es adecuado,

161
00:08:30.560 --> 00:08:33.600
hay mensajes misóginos...

162
00:08:34.280 --> 00:08:37.320
También hay
banalización de las drogas

163
00:08:37.679 --> 00:08:40.440
o comportamientos que en ocasiones

164
00:08:40.480 --> 00:08:43.240
no es el propio
generador del contenido,

165
00:08:43.360 --> 00:08:47.560
sino el chat o los mensajes
que de ahí se van generando.

166
00:08:47.720 --> 00:08:52.320
Y en el caso de las chicas,
tienen muchos menos seguidores.

167
00:08:52.720 --> 00:08:54.800
<c.vtt_yellow>Eso es un dato llamativo.</c>

168
00:08:54.840 --> 00:08:58.400
Eso ya implica
que tienen mucho menos alcance.

169
00:08:59.840 --> 00:09:03.440
Y luego son mucho más atacadas,
reciben muchos más comentarios

170
00:09:03.480 --> 00:09:06.560
sobre su físico,
sobre si llevan maquillajes

171
00:09:06.600 --> 00:09:07.840
o si no lo llevan.

172
00:09:08.960 --> 00:09:11.240
Si en alguna ocasión
alguna ha intentado

173
00:09:11.280 --> 00:09:14.160
hacer algún comentario feminista
o romper una lanza

174
00:09:14.200 --> 00:09:17.000
en algún tema así polémico,
se le echan encima,

175
00:09:17.560 --> 00:09:21.840
incluso en las redes
está esto del baneo,

176
00:09:21.880 --> 00:09:25.400
de "te expulso por comentarios...",
que se puede utilizar en positivo

177
00:09:26.240 --> 00:09:28.680
cuando son mensajes racistas

178
00:09:28.720 --> 00:09:32.640
o machistas...
pero también en negativo.

179
00:09:32.680 --> 00:09:37.320
Entonces,
ahí lo que vemos es que, al final,

180
00:09:38.680 --> 00:09:41.600
tú no puedes contrarrestar mensajes

181
00:09:41.640 --> 00:09:43.360
que pueden ser, como decíamos,

182
00:09:43.400 --> 00:09:48.360
noticias falsas o plagados
de estereotipos, violencia y demás,

183
00:09:49.080 --> 00:09:52.480
que tienen un alcance
a millones de personas

184
00:09:52.600 --> 00:09:56.120
con datos y con mensajes

185
00:09:56.160 --> 00:09:58.560
basados en evidencia y fiables,

186
00:09:58.600 --> 00:10:00.480
porque no vas a tener
el mismo alcance.

187
00:10:00.520 --> 00:10:05.360
Eso también está estudiado,
lo veíamos, tiene mucho más alcance

188
00:10:05.520 --> 00:10:07.640
y más repercusión
un mensaje polémico

189
00:10:08.400 --> 00:10:10.160
y seguramente mucho más histriónico

190
00:10:10.200 --> 00:10:14.040
que luego
el que viene a intentar desmontarlo.

191
00:10:14.640 --> 00:10:17.360
<c.vtt_yellow>Son datos llamativos,
que ellos tengan más seguidores</c>

192
00:10:17.400 --> 00:10:21.280
<c.vtt_yellow>y también
que ellas reciban más ataques.</c>

193
00:10:22.680 --> 00:10:25.000
<c.vtt_yellow>Claro,
también os preocupa el desarrollo</c>

194
00:10:25.040 --> 00:10:26.760
<c.vtt_yellow>de la inteligencia artificial.</c>

195
00:10:26.800 --> 00:10:30.560
<c.vtt_yellow>Si se está basando en todo
lo que está pasando ahora,</c>

196
00:10:30.600 --> 00:10:32.760
<c.vtt_yellow>en esos estereotipos,</c>

197
00:10:33.080 --> 00:10:36.040
<c.vtt_yellow>va a continuar
desarrollándolos en el futuro.</c>

198
00:10:36.080 --> 00:10:37.400
Claro, eso es.

199
00:10:37.440 --> 00:10:40.920
Ahí creemos que tendrá
que investigarse un poco más

200
00:10:40.960 --> 00:10:44.520
y ver por dónde avanzar para evitar
precisamente esos sesgos,

201
00:10:44.560 --> 00:10:47.480
porque, al final, si está bebiendo
de ese tipo de contenidos,

202
00:10:47.520 --> 00:10:49.960
con estereotipos,
como señalabas,

203
00:10:50.000 --> 00:10:54.960
y con mensajes sesgados,

204
00:10:55.000 --> 00:10:58.480
al final lo que va a producir
también va a estar sesgado.

205
00:10:58.800 --> 00:11:02.560
<c.vtt_yellow>En el estudio también planteáis
soluciones, posibles medidas</c>

206
00:11:02.600 --> 00:11:05.840
<c.vtt_yellow>para garantizar los derechos
de niños, niñas y adolescentes.</c>

207
00:11:05.880 --> 00:11:09.400
<c.vtt_yellow>¿Cuáles serían los más importantes?
Pues lo más importante es</c>

208
00:11:09.440 --> 00:11:12.560
una educación en un uso responsable

209
00:11:12.920 --> 00:11:16.880
y seguro de Internet
y de las redes sociales.

210
00:11:17.160 --> 00:11:20.200
Realmente, chicos y chicas
deben tener una formación

211
00:11:20.240 --> 00:11:22.120
que esté estandarizada,

212
00:11:22.160 --> 00:11:24.840
que esté de manera transversal
en el currículo escolar

213
00:11:24.880 --> 00:11:26.000
y que de la misma manera

214
00:11:26.200 --> 00:11:30.680
que te enseñan a saber utilizar

215
00:11:30.720 --> 00:11:35.680
el diccionario, o cuáles son
los medios de comunicación

216
00:11:35.720 --> 00:11:37.200
o escribir un email...

217
00:11:37.240 --> 00:11:39.840
antes te enseñaban
a escribir una carta, un email,

218
00:11:39.880 --> 00:11:42.960
pues que te enseñen también a saber
cuándo una noticia es falsa,

219
00:11:43.040 --> 00:11:44.960
cuándo no, y tantas otras cosas,

220
00:11:45.000 --> 00:11:47.320
como que pueden darse
situaciones de violencia

221
00:11:47.360 --> 00:11:50.680
y todo lo que supone compartir
también tu vida en Internet.

222
00:11:50.720 --> 00:11:55.240
Luego, por otro lado,
precisamente por toda esa falta

223
00:11:55.280 --> 00:11:59.200
de enfoque de género
y toda esa violencia

224
00:11:59.240 --> 00:12:01.400
a la que están expuestas
sobre todo las chicas

225
00:12:01.440 --> 00:12:04.040
en el entorno digital,
creemos que es fundamental

226
00:12:04.080 --> 00:12:06.960
que haya una educación
afectivo-sexual también adaptada

227
00:12:07.000 --> 00:12:10.000
a las edades,
desde el conocer tu cuerpo

228
00:12:10.040 --> 00:12:14.400
y tener esa seguridad
para decir que no

229
00:12:14.440 --> 00:12:18.400
a una educación afectivo-sexual,
mucho más allá de la biología

230
00:12:18.440 --> 00:12:22.440
y de los métodos anticonceptivos,
que también vaya al consentimiento,

231
00:12:22.480 --> 00:12:24.880
a relaciones de confianza
y comunicación.

232
00:12:24.920 --> 00:12:29.840
Y, luego, hay todo un sector,
desarrollos de contenido,

233
00:12:29.880 --> 00:12:33.360
empresas y demás, que también
deben tener una responsabilidad.

234
00:12:33.400 --> 00:12:34.840
Hablamos en el informe

235
00:12:34.880 --> 00:12:37.160
de la necesidad
de que los algoritmos

236
00:12:37.200 --> 00:12:41.000
dirigidos a chicos
y chicas menores de edad

237
00:12:41.040 --> 00:12:45.560
no tengan
ese fin comercial o político,

238
00:12:45.600 --> 00:12:48.680 L:61%
que, al final, está haciendo
que consuman unos contenidos

239
00:12:48.720 --> 00:12:50.720 L:61%
que en muchos casos
no son adecuados,

240
00:12:50.760 --> 00:12:53.640 L:61%
pero siempre teniendo en cuenta
que tenemos que garantizar

241
00:12:53.680 --> 00:12:56.480 L:61%
el derecho a la información
de estos niños y niñas.

242
00:12:56.520 --> 00:12:58.760 L:61%
<c.vtt_yellow>Claro, como decías,
esto es muy transversal,</c>

243
00:12:58.800 --> 00:13:02.080 L:61%
<c.vtt_yellow>necesitamos que toda la sociedad
se vuelque en esto,</c>

244
00:13:02.120 --> 00:13:05.480 L:69%
<c.vtt_yellow>desde los niños, adolescentes,</c>

245
00:13:05.520 --> 00:13:08.840
<c.vtt_yellow>padres, familias,
educación, empresas,</c>

246
00:13:08.880 --> 00:13:10.360
<c.vtt_yellow>administraciones... ¿no?</c>

247
00:13:10.400 --> 00:13:12.960
Sí, desde luego,
el abordaje tiene que ser integral

248
00:13:13.000 --> 00:13:17.680
y cada uno, cada una, tenemos
una parte de responsabilidad.

249
00:13:17.720 --> 00:13:22.680
Las familias, por ejemplo,
están reclamando herramientas

250
00:13:22.720 --> 00:13:24.920
para poder acompañar
a sus hijos y a sus hijas.

251
00:13:24.960 --> 00:13:27.120
Nosotros hablamos
de los controles parentales,

252
00:13:27.760 --> 00:13:31.440
creo que el 38 % nos dice que
se lo pueden saltar perfectamente.

253
00:13:31.480 --> 00:13:34.320
Y es que el control parental
no puede ser en quien deleguemos

254
00:13:34.360 --> 00:13:37.480 L:61%
nuestra responsabilidad
como madres y padres

255
00:13:37.520 --> 00:13:39.480 L:69%
para educarles y acompañarles.

256
00:13:39.520 --> 00:13:42.160 L:61%
Igual que nos preocupamos
con quién van al parque

257
00:13:42.200 --> 00:13:46.760 L:61%
o salen los fines de semana,
tenemos que preocuparnos

258
00:13:46.800 --> 00:13:49.440
por quiénes son sus referentes,
que están consumiendo,

259
00:13:49.480 --> 00:13:52.360
y enseñarles y darles pautas

260
00:13:52.400 --> 00:13:54.880
para que ellos sepan filtrar

261
00:13:54.920 --> 00:13:57.000
y consumir
también de manera crítica.

262
00:13:57.040 --> 00:13:59.640
Es decir:" Yo estoy viendo
esto porque me entretiene,

263
00:13:59.680 --> 00:14:01.560
pero sé
que no todo lo que está diciendo

264
00:14:01.600 --> 00:14:04.680
tiene que ser una verdad absoluta".
<c.vtt_yellow>Claro.</c>

265
00:14:04.720 --> 00:14:08.080
<c.vtt_yellow>Bueno, esto forma parte
de un gran proyecto</c>

266
00:14:08.120 --> 00:14:10.120
<c.vtt_yellow>de Save the Children
en investigación</c>

267
00:14:10.160 --> 00:14:12.920
<c.vtt_yellow>de los entornos digitales
y la influencia en niños</c>

268
00:14:12.960 --> 00:14:15.720
<c.vtt_yellow>y adolescentes,
así que supongo que volveremos</c>

269
00:14:15.760 --> 00:14:17.600
<c.vtt_yellow>a hablar de este asunto, Catalina.</c>

270
00:14:17.640 --> 00:14:21.360
Seguro, estaremos ahí
y seguiremos investigando.

271
00:14:22.200 --> 00:14:24.760
<c.vtt_yellow>Pues muchísimas gracias.
Nada, gracias a ti.</c>

