00:00:31,114 --> 00:00:34,659
හරි, පහසු විදියට වාඩි වෙන්න

00:00:37,579 --> 00:00:40,789
හරි නේද? 
- ඔව්

00:00:46,796 --> 00:00:49,799
මුලින් ඔබ කවුරුන්දැයි කියන්න

00:00:50,467 --> 00:00:53,344
හලෝ වර්ල්ඩ්, බේලී

00:00:53,970 --> 00:00:56,347
හරි නේද?
- දැනෙනවා අමුත්තක්

00:00:56,890 --> 00:00:59,517
මං මේකට කැමැති නෑ

00:00:59,851 --> 00:01:02,228
2011 සහ 2012 දී ෆේස්බුක් වැඩ කළා

00:01:02,312 --> 00:01:05,190
මම ඉන්ස්ටග්‍රෑම් ආරම්භක සාමාජිකාවක්

00:01:05,272 --> 00:01:08,693
මම ගූගල්, යූ ටියුබ්වලට සම්බන්ධයි

00:01:08,777 --> 00:01:11,696
ඇපල්, ගූගල්, ට්විටර්, පාම්

00:01:12,739 --> 00:01:15,533
මොසිල්ලා ලැබ් ආරම්භ කළා
ෆයර්ෆොක්ස් පැත්තට මාරු වුණා

00:01:15,617 --> 00:01:18,119
එහෙනම් පටිගත කරන්න සූදානම්

00:01:21,206 --> 00:01:22,624
මම ට්විටර් සමාගමට වැඩ කළා

00:01:23,041 -->  00:01:26,169
මම ඉංජිනේරු අංශයේ 
ජ්‍යේෂ්ඨ උප සභාපතිවරයා

00:01:27,337 --> 00:01:32,717
මම පින්ට්‍රස්ට් සභාපති, ඊට කලින්
මුදල් ඉපැයීම් කටයුතු අධ්‍යක්ෂවරයා

00:01:32,801 --> 00:01:34,260
වසර 5ක් ෆේස්බුක් සමාගමේ

00:01:34,344 --> 00:01:37,972
ට්විටර් 'සංවර්ධන වේදිකාව' 
පවත්වාගෙන ගියේ මමයි

00:01:38,056 --> 00:01:41,270
පසුව පාරිභෝගික නිෂ්පාදන ප්‍රධානියා 
- මම සමාරම්භක ...

00:01:41,354 --> 00:01:46,689
ගූගල් ඩ්‍රයිව්, ජීමේල් චැට්, ෆේස්බුක්
ෆේස්බුක් ලයික් බොත්තම නිර්මාණයේ

00:01:47,440 --> 00:01:52,779
මේ නිසයි මම මාස 8 ක් 
නීතීඥ උපදෙස් ගත්තේ

00:01:54,072 --> 00:01:56,406
මේක බෙල්ල ගහලා යන වැඩක්

00:01:58,409 --> 00:02:02,914
මට හැමවිටම සිතුනේ 
ඒක යහපත් දෙයක් විදියට

00:02:03,414 --> 00:02:05,375
තවදුරටත් එහෙම නෑ

00:02:05,458 --> 00:02:10,588
ගූගල් සමාගමෙන් ඉවත් වුණේ
සදාචාරාත්මක හේතූ නිසා

00:02:10,672 --> 00:02:14,134
ගූගල් සමාගම ගැන විතරක් නොවේ
සමස්ත කර්මාන්තය ගැන නොසතුටින්

00:02:14,217 --> 00:02:17,679
මම කනස්සල්ලෙන්
හරිම කනස්සල්ලෙන්

00:02:19,097 --> 00:02:27,814
සමාජ මාධ්‍ය මෙවලම් කළ
යහපත බොහොමයි

00:02:27,897 --> 00:02:31,943
ඥාති මිත්‍රාදීන් එකිනෙකා සමීප කළා
අවයව බද්ධ කිරීම්වලට උදවුවක් වුණා

00:02:32,026 -->  00:02:39,159
අර්ථවත්, යහපත් දේ සිදුවෙනවා
ලොව පුරා, සමාජ මාධ්‍ය මෙවලම් නිසා

00:02:39,242 --> 00:02:40,285
ඒක ධනාත්මකයි

00:02:40,827 --> 00:02:44,539
ඒ නිසා අයහපත් පැත්ත
දකින්න පෙලඹෙන්නෙ නෑ

00:02:45,540 --> 00:02:48,585
මේ සමාජ මාධ්‍ය මෙවලම් 
ඒවාට රිසි පරිදි ක්‍රියාත්මකයි

00:02:48,668 --> 00:02:52,005
බලාපොරොත්තු වුණාට වඩා 
වෙනස් විදියටයි ක්‍රියා කරන්නේ‍

00:02:52,088 --> 00:02:56,509
ප්‍රතිවිපාක කිසිවක් අපේක්ෂා කළේ නෑ

00:02:56,593 --> 00:02:59,554
නපුරා එක් කෙනෙක් නොවේ

00:03:01,598 --> 00:03:03,975
එහෙනම්, මොකක්ද ගැටලුව?

00:03:09,147 --> 00:03:13,026
ගැටලුවක් තිබෙනවද?
එහෙනම් ඒ මොකක්ද?

00:03:17,614 --> 00:03:22,118
තනි කෙටි පිළිතුරක් දෙන්න අමාරුයි
ඉස්මතුවෙන ගැටලු කීපයක් තියෙනවා 

00:03:22,535 --> 00:03:23,953
ගැටලුව මොකක්ද?

00:03:33,463 --> 00:03:37,675
විවේචන එල්ල වුවත් තාක්ෂණ
සමාගම්වල වැඩ කටයුතු අඩුවක් නෑ

00:03:37,759 --> 00:03:40,929
සමස්ත තාක්ෂණික කර්මාන්තය 
විමර්ශනයට ලක් වෙමින් පවතිනවා

00:03:41,012 --> 00:03:43,806
නව අධ්‍යයනයකින් හෙළි වෙලා ...

00:03:43,890 --> 00:03:49,397
මානසික සෞඛ්‍යය සහ සමාජ මාධ්‍ය 
භාවිතය අතරේ සම්බන්ධයක් ඇති බව

00:03:51,481 --> 00:03:56,319
මිලියන ගණනක් ඇමෙරිකානුවන්
සමාජ මාධ්‍යවලට ඇබ්බැහි වෙලා

00:03:56,402 --> 00:04:02,742
අප කවුරු කවුරුත් 
නව තාක්ෂණයේ සිරකරුවන්

00:04:02,825 --> 00:04:06,788
ව්‍යාජ පුවත් සමාජයට තර්ජනයක්

00:04:06,871 --> 00:04:10,250
අවුරුදු 12 කට කලින් ට්විටර් 
නිපදවද්දී මෙහෙම හිතුවේ නෑ

00:04:10,333 --> 00:04:14,754
රුසියන් සයිබර් ප්‍රහාර ගැන 
ධවල මන්දිරය කනස්සල්ලෙන්

00:04:14,837 --> 00:04:18,132
යූ ටියුබ් නියාමනයක් සඳහා
බලපෑම් එල්ල වෙමින් තිබෙනවා

00:04:18,216 -->  00:04:24,013
තරුණ පරම්පරාව, ටික්ටොක් ගැන 
නොදන්න දෙයක් නෑ

00:04:24,097 --> 00:04:26,224
අයිලා, මට උදව් වෙන්න

00:04:26,307 --> 00:04:29,978
සමාජ මාධ්‍ය නිසා ඔබේ දරුවන්
මානසික පීඩනයකට ලක් වෙනවා

00:04:30,061 --> 00:04:32,105
අයිලා, මේසය ලෑස්ති කරන්න

00:04:32,188 --> 00:04:35,316
අලුත් රූපලාවණ්‍ය විලාසිතා
යෞවනයන් අතරේ ජනප්‍රියයි

00:04:35,400 --> 00:04:37,902
ප්ලාස්ටික් ශල්‍ය වෛද්‍යවරුන්
නව සින්ඩ්‍රෝමයක් නම් කරලා

00:04:37,986 --> 00:04:39,822
'ස්නැප්චැට් ඩිස්මෝර්ෆියා'

00:04:39,905 --> 00:04:43,741
තරුණ තරුණියන් සැත්කම් කර ගන්නවා
සෙල්ෆි ඡායාරූපවල විදියට ලස්සන වෙන්න

00:04:43,825 --> 00:04:45,910
ඇයි ඇයට ෆෝන් අරන් දුන්නේ?

00:04:45,994 --> 00:04:49,580
මොනවා කරන්නද? පංතියේ 
හැම ළමයා අතේම ෆෝන්

00:04:50,164 --> 00:04:51,165
ඇයට තාම 11 යි

00:04:51,249 --> 00:04:55,086
ඔයා ෆෝන් නැතිව ලොවෙන්
හුදෙකලා වුණාට අපට එ්ක බෑ

00:04:55,169 --> 00:04:59,340
ෆෝන් නැතත් මම
අන්තර්ජාලයට සම්බන්ධයි

00:04:59,424 --> 00:05:03,094
ෆෝන් එකම නොවේ ජීවිතේ

00:05:03,177 --> 00:05:07,765
ඔත්තු බැලීම් සිදුවෙනවා
කාටවත් නොදැනෙන අයුරින්

00:05:07,849 --> 00:05:12,812
අයි.එස් ත්‍රස්තයන් වගේ අන්තවාදීන්
සමාජ මෙවලම් භාවිතයට යොමු වෙලා

00:05:12,895 --> 00:05:17,442
ඉන්දියාවේ, සමාජ මාධ්‍යවල 
උසි ගැන්වීමෙන් මරණ සිදුවුණා

00:05:17,525 --> 00:05:20,361
ව්‍යාජ පුවත්වලින් සිදුවන
ප්‍රතිවිපාක ඉතා බිහිසුණුයි

00:05:20,445 --> 00:05:24,073
ව්‍යාජ පුවත් පළ වෙද්දී
වසංගත පාලනයත් අසීරුයි 

00:05:24,157 --> 00:05:26,993
චීන කෑමවලින් කොරෝනා 
බෝ වෙනවාද?

00:05:27,535 --> 00:05:32,540
අප තොරතුරු යුගයේ සිට 
සාවද්‍ය තොරතුරු යුගයට ඇවිත්

00:05:32,623 --> 00:05:34,667
ප්‍රජාතන්ත්‍රවාදයට ප්‍රහාරයක්

00:05:34,751 --> 00:05:41,799
අද දකින සමාජ මෙවලම්වලින්
සමාජ ව්‍යුහයේ ඛාදනයක් වෙනවා

00:05:58,566 --> 00:06:03,446
මුලින් ඔබේ පිළිගැනීමේ කතාව
ඊට පස්සේ, වීඩියෝ පෙන්වනවා

00:06:04,197 --> 00:06:07,325
නෝනාවරුනි, මහත්වරුනි, ට්‍රිස්ටන් හැරිස්

00:06:07,408 --> 00:06:11,038
හරි, මම වේදිකාවට ගොඩවෙනවා

00:06:13,831 --> 00:06:17,126
ඔබ සැමගේ පැමිණීම 
සතුටක් යැයි කියනවා

00:06:17,919 --> 00:06:22,048
මගේ මාතෘකාව, තාක්ෂණය 
සඳහා නව න්‍යාය පත්‍රයක් ගැන

00:06:22,131 --> 00:06:25,468
ඇයි න්‍යාය පත්‍රයක් ඕනෑ

00:06:25,551 --> 00:06:27,804
තාක්ෂණික කර්මාන්තයේ අර්බුදයක්

00:06:28,262 --> 00:06:31,641
දුක්ගැනවිලි, අපචාර, අපකීර්තිය
ආදියයි නිතර ඇහෙන්නේ

00:06:31,724 --> 00:06:37,855
දත්ත සොරකම්, ඇබ්බැහිවීම්
ව්‍යාජ පුවත් ගැන මැසිවිලි 

00:06:38,189 --> 00:06:44,612
ගැටලුවලට යටින් ඇත්තේ මොකක්ද?
එකවිට සියල්ල වෙන්නේ කොහොමද?

00:06:46,447 --> 00:06:48,992
එහෙම හොඳයි නේද?
- අපූරුයි

00:06:50,743 --> 00:06:56,707
ඕනෑ හැමෝටම ඒත්තු ගන්වන්න 
තාක්ෂණික කර්මාන්තයේ අර්බුදය

00:06:56,791 --> 00:07:00,211
එහෙම වෙන්නේ එක් හේතුවක් නිසයි

00:07:05,091 --> 00:07:09,387
වටපිට බැලුවම පෙනේවි
ලෝකයට පිස්සු හැදිලා වගේ

00:07:12,765 --> 00:07:15,309
ඒක සාමාන්‍ය දෙයක්ද?

00:07:16,102 --> 00:07:18,771
බලපෑමකට යටත්වීමක්ද?

00:07:27,989 --> 00:07:30,491
වැඩ සිදුවෙන ආකාරය
තේරුම් ගැනීම වැදගත්

00:07:30,575 --> 00:07:36,247
මේක තාක්ෂණික කර්මාන්තය 
පමණක් දැනගත යුතු දෙයක් නොවේ

00:07:53,181 --> 00:07:55,933
ට්‍රිස්ටන් හැරිස්, ගූගල් සමාගමේ
හිටපු නිර්මාණ ආචාරධර්මවේදියෙක්

00:07:56,017 --> 00:07:59,395
හෘද සාක්ෂියට අනුව ක්‍රියා කරනවා
- ඔහු යෝජනා කරන්නේ ...

00:07:59,479 --> 00:08:04,192
සමාජ මාධ්‍ය මෙවලම් සඳහා
ආචාර්යධර්ම තිබිය යුතු බවයි

00:08:04,275 --> 00:08:06,903
තාක්ෂණය හා සම්බන්ධ කෙනකු
මෙවැනි යෝජනාවක් කිරීම අමුතුයි

00:08:06,986 --> 00:08:10,114
ට්‍රිස්ටන් හැරිස් වෙනස් විදියට හිතනවා

00:08:11,324 --> 00:08:16,037
ගූගල් ජීමේල් කණ්ඩායමේ සිටිද්දී 
එක් කාරණාවක් සිතට වද දුන්නා

00:08:16,120 --> 00:08:23,169
ජීමේල් ඉන් බොක්ස්
වර්ණ ගැන්වීම් ආදිය ගැන

00:08:23,252 --> 00:08:25,880
මම ඊමේල්වලට ඇලී ගැලුණු කෙනෙක්

00:08:26,297 --> 00:08:31,511
එසේ ඇලී ගැලී සිටීම වළැක්වීමේ
ක්‍රමවේදයක් ගූගල් හිතන්නේ නෑ

00:08:31,969 --> 00:08:34,514
මට ප්‍රශ්නයක් වුණා, ඇයි මේ ගැන 
වෙන කවුරුවත් හිතන්නේ නැත්තේ

00:08:34,597 --> 00:08:39,684
මට කලකිරීමක් ඇති වුණා

00:08:39,769 --> 00:08:43,147
සමස්ත තාක්ෂණ කර්මාන්තය 
ගැනම කලකිරීමක් ඇති වුණා

00:08:46,817 --> 00:08:52,573
තේරුම් ගන්න හැදුවා
ඇතුළේ සිට වෙනස් කරන්න

00:08:55,201 --> 00:08:59,497
කරුණු පහදා දෙමින්
වාර්තාවක් සකස් කළා

00:09:00,998 --> 00:09:06,087
හැමදාම ගෙදර ගිහින් පැය 
කීපයක් ඒ ගැන සිත යොමු කළා

00:09:06,170 --> 00:09:08,548
මුලික අන්තර්ගතය මෙයයි

00:09:08,631 --> 00:09:15,263
නිර්මාණකරුවන් 50 ක්
අවුරුදු 20 ත් 30 ත්, සුදු ජාතිකයන්

00:09:15,888 --> 00:09:19,725
ඔවුන් තමයි බිලියන දෙකක 
ජනතාවගේ ජීවිත මෙහෙයවන්නේ

00:09:21,018 --> 00:09:24,438
බිලියන දෙකක ජනතාවට 
සිතන්න සිතුවිලි දෙන්නේ ඔවුන්

00:09:24,522 --> 00:09:28,401
ගූගල් නිර්මාණකරුවන්ට 
එය එසේ විය යුතුයි

00:09:28,484 --> 00:09:30,778
උදෑසන අවදි වෙද්දී තිරයේ
වැටෙන දේ අනුව ක්‍රියා කරනවා

00:09:31,195 --> 00:09:35,283
එය නවත්වන්න, ගූගල් සමාගමට
සදාචාරාත්මක අයිතියක් තියෙනවා

00:09:36,075 --> 00:09:41,789
මම සකස් කළ වාර්තාව
මුලින් සමීපතමයන්ට යැව්වා

00:09:41,872 --> 00:09:44,959
ප්‍රතිචාරය ගැන දැන සිටියේ නෑ

00:09:46,460 --> 00:09:50,464
පසුදා වැඩට යද්දී, කාර්යාලයේ
හුඟක් අය ඒ ගැන උනන්දුවෙන්

00:09:52,133 --> 00:09:59,133
සවස් වෙද්දී 400 කට වඩා නැරඹුවා
ප්‍රතිචාර දක්වමින් මට ඊමේල් ආවා

00:10:00,000 --> 00:10:02,852
සමාගමේ හැම දෙපාර්තමේන්තුවකම
හුඟක් අය මගේ අදහසට එකඟ වුණා

00:10:02,935 --> 00:10:06,939
දරුවන්ට, අවට සිටින අයට සිදුවන
බලපෑම ඔවුන්ටත් අවබෝධ වී තිබුණා

00:10:07,481 --> 00:10:10,818
මම ආරම්භ කළේ විප්ලවයක්

00:10:11,861 --> 00:10:15,197
ගූගල් ප්‍රධානී ලැරී පේජ් 
මගේ වාර්තාව දැකලා ...

00:10:15,281 --> 00:10:17,908
රැස්වීම් කීපයක් පැවැත්වූවා

00:10:17,992 --> 00:10:24,415
එල්ල වුණු අප්‍රසාදය තේරුම් අරන්
ගූගල් වෙනස් වේවි අපේක්ෂා කළා

00:10:26,000 --> 00:10:29,878
ඒත් කිසිවක් වුණේ නෑ

00:10:34,300 --> 00:10:39,221
2006 දී හැමෝම,
ෆේස්බුක් අපත් ඇතුළුව ...

00:10:39,305 --> 00:10:43,392
ගූගල් සමාගම කෙරෙහි 
ලොකු ප්‍රසාදයකින් සිටියා

00:10:43,476 --> 00:10:47,396
ගූගල් ලබා දෙමින් තිබුණේ
ඉතා ප්‍රයෝජනවත් සේවාවක්

00:10:47,480 --> 00:10:51,442
ලෝකයට වුණේ යහපතක්

00:10:51,525 --> 00:10:54,995
ඒත් ඊට සමාන්තරව ඔවුන් මුදල් 
සෙවීමේ යාන්ත්‍රණයක් ගොඩ නැඟුවා

00:10:55,404 --> 00:11:02,161
ඉරිසියාවක් ඇතිවුණා
ඔවුන් අපූරුවට එය කළාට

00:11:02,953 --> 00:11:05,289
ෆේස්බුක් ආරම්භ වෙලා වසර දෙකයි

00:11:05,373 --> 00:11:10,586
මාව රැකියාවට ගත්තේ 
ව්‍යාපාරික වශයෙන් ලාභ ලබන්න

00:11:10,670 --> 00:11:17,051
මුදල් ඉපැයීමේ අධ්‍යක්ෂකවරයා මමයි
මුදල් සෙවිය යුතු ක්‍රමය මා සිතන්න ඕනෑ

00:11:17,134 --> 00:11:26,276
වැඩ කරන්න හුඟක් අය සිටියා
ඒත් අවසන් බර පැටවුණේ මට

00:11:26,769 --> 00:11:33,951
මුදල් ඉපැයීමට, වෙළඳ ප්‍රචාරණ
ආකෘතිය තමයි ඊට සුදුසුම ක්‍රමය

00:11:42,243 --> 00:11:46,747
අම්මා, වීඩියෝවක් එවලා
- වැඩසටහනක කොටසක් ...

00:11:46,831 --> 00:11:50,584
සමාජ මාධ්‍යවලින් ඉවත් වීම 
අපේ යහපතට හොඳයි කියනවා

00:11:50,668 --> 00:11:56,090
අම්මගේ ඊමේල් බ්ලොක් කරන්න වේවි
සමහර අදහස් තේරුම් ගන්න අමාරුයි

00:11:56,173 --> 00:12:00,553
ඇය කෑම වට්ටෝරු වීඩියෝ, 
ව්‍යායාම වීඩියෝ නරඹනවා

00:12:00,636 --> 00:12:03,055
යාළුවන්ගේ නෑදෑයන්ගේ 
විස්තර සොයා බලනවා

00:12:04,932 --> 00:12:11,731
සමාජ මාධ්‍යවලට ඇබ්බැහිවෙලා නම්
ෆෝන් එක පැත්තකට දාලා සවන් දෙන්න

00:12:11,814 --> 00:12:18,112
අපේ මීළඟ අමුත්තා පැහැදිලි කරයි
සමාජ මාධ්‍ය ජීවිත අවුල් කරන හැටි

00:12:18,195 --> 00:12:25,951
සමාජ මාධ්‍ය ගිණුම් මකන්න හේතු 
10 ක් ඔබට කියාවි ජැරොන් ලැනියර්

00:12:27,997 --> 00:12:33,544
ගූගල් සහ ෆේස්බුක් වැනි සමාගම් 
ධනවත්, ඒවගේමයි අති සාර්ථකයි

00:12:33,711 --> 00:12:36,839
අනෙක් සමාගම්වලට 
සාපේක්ෂව සේවකයන් අඩුයි

00:12:36,922 --> 00:12:41,427
ඔවුන්ට මහා පරිමාණයෙන් 
මුදල් ලැබෙනවා

00:12:41,510 --> 00:12:46,222
ඇයි ඔවුන්ට විශාල මුදලක් ලැබෙන්නේ
අන්න ඒක හරිම වැදගත් ප්‍රශ්නයක්

00:12:47,308 --> 00:12:50,311
මම අවුරුදු 35 ක් තාක්ෂණ ආයෝජකයෙක්

00:12:51,020 --> 00:12:55,566
සිලිකන් වැලි පළමු වසර 50 තුළ 
නිපදවූයේ දෘඩාංග සහ මෘදුකාංග

00:12:55,649 --> 00:12:58,402
ඒවා පාරිභෝගිකයන්ට විකුණුවා
ලස්සනයි; සරලයි

00:12:58,486 --> 00:13:02,447
ඒත් පසුගිය අවුරුදු 10 තුළ 
සිලිකන් වැලි විශාලතම සමාගම්

00:13:02,530 --> 00:13:09,205
පරිශීලකයන් විකුණන්න පටන් ගත්තා
- නිෂ්පාදන සඳහා මුදල් ගෙවන්නේ නෑ

00:13:09,288 --> 00:13:12,166
නිෂ්පාදන සඳහා ගෙවීම් 
කරන්නේ දැන්වීම්කරුවන් 

00:13:12,249 --> 00:13:16,086
අපව විකිණීමයි සිදු කෙරෙන්නේ

00:13:16,170 --> 00:13:21,592
ඔබ නිෂ්පාදනයක් සඳහා මුදල් 
නොගෙවනවා නම්, ඔබයි නිෂ්පාදිතය

00:13:23,385 --> 00:13:27,223
බොහෝ අය හිතන්නේ 
ගූගල් යනු යන්ත්‍රයක් කියලයි ...

00:13:27,306 --> 00:13:31,101
ෆේස්බුක් යනු මිතුරන් කරන්නේ
මොනවාදැයි බලන තැනක් කියලයි

00:13:31,185 --> 00:13:35,481
ඒත් සමාජ මාධ්‍ය එකිකෙනා සමඟ
තරඟ කරනවා ඔබේ අවධානය ගන්න

00:13:36,524 --> 00:13:41,111
ෆේස්බුක්, ස්නැප්චැට්, ට්විටර්, 
ඉන්ස්ටග්‍රෑම්, යූ ටියුබ්

00:13:41,195 --> 00:13:45,699
සමාගම්වල ව්‍යාපාර ආකෘතිය
මිනිසුන් තිරය මත රඳවා ගැනීම

00:13:46,283 --> 00:13:50,955
හැකි තරම් එක් පුද්ගලයකුගේ
අවධානය දිනා ගැනීමයි අරමුණ

00:13:51,455 --> 00:13:53,574
ඔබ කොතරම් කාලයක්
ඒ වෙනුවෙන් වැය කරනවාද?

00:13:53,874 --> 00:13:56,669
ඔබේ ජීවිතයෙන් කොතරම්
ප්‍රමාණයක් අපට දෙනවාද?

00:13:58,629 --> 00:14:02,424
සමාගම්  ක්‍රියාත්මක වෙන ආකාරය 
තේරුම් ගනිද්දී, ඔබට එය වැටහෙනවා

00:14:03,050 --> 00:14:06,095
නොමිලේ යැයි සිතන 
සියලු අන්තර්ජාල සේවා ...

00:14:06,178 --> 00:14:09,473
නොමිලේ නොවේ
ගෙවීම් කරන්නේ දැන්වීම්කරුවන්

00:14:09,557 --> 00:14:11,559
ඇයි දැන්වීම්කරුවන්
ඒ සමාගමවලට ගෙවන්නේ?

00:14:11,642 --> 00:14:14,687
එසේ කරන්නේ ඔවුන්ගේ 
දැන්වීම් අපට පෙන්වන්න

00:14:14,770 --> 00:14:18,357
ඔබේ අවධානය වෙනුවෙන් තමයි
දැන්වීම්කරුවන්ට විකුණන්නේ

00:14:18,816 --> 00:14:20,442
ඒක සරලයි

00:14:20,860 -->  00:14:26,574
ඔබේ හැසිරීම සහ සංජානනයේ 
වෙනස් වීමයි නිෂ්පාදිතය ...

00:14:27,658 --> 00:14:30,244
නිෂ්පාදිතය එයයි; එය පමණයි

00:14:30,327 --> 00:14:34,081
නිෂ්පාදිතය යැයි වෙන කිසිවක් නෑ

00:14:34,164 --> 00:14:37,001
ඔවුන්ට මුදල් උපයන්න හැකි
එකම දේ එයයි

00:14:37,668 --> 00:14:41,714
ඔබ කරන දේ, සිතන දේ 
ඔබ කවුරුන්ද වෙනස් කිරීම

00:14:42,631 --> 00:14:45,301
වෙනස් කිරීම වෙන්නේ ඔබට
දැනෙන නොදැනෙන විදියට

00:14:45,384 --> 00:14:48,971
කාට හරි කීවොත්
මට ඩොලර් මිලියන 10 ක් දෙන්න

00:14:49,054 --> 00:14:54,310
මම ලෝකය වෙනස් කරන්නම්
ඔබට රිසි විදියට, සියයට එකකින්

00:14:54,852 --> 00:14:59,188
ඇදහිය නොහැකි විදියට
එය විශාල මුදලක් වටිනවා

00:15:00,691 --> 00:15:04,570
සෑම ව්‍යාපාරයක්ම 
සිහින මැවූ දේ එයයි

00:15:04,653 --> 00:15:10,910
දැන්වීමක් පළ කරන්නේ
සාර්ථක ප්‍රතිඵල ලබා ගන්න

00:15:11,327 --> 00:15:14,513
ඔවුන්ගේ ව්‍යාපාරය එයයි
විශ්වාසයයි අළෙවි කරන්නේ

00:15:14,997 --> 00:15:19,793
ව්‍යාපාරය සාර්ථක කර ගන්නට 
පැහැදිලි දැක්මක් තිබෙන්න ඕනෑ 

00:15:20,085 --> 00:15:26,926
පැහැදිලි දැක්මක් ඇති වෙන්නේ
ඇති තරම් දත්ත ඔබ සතු විටයි

00:15:29,136 --> 00:15:31,305
'ඔත්තු බැලීමේ ධනවාදය' 
යනුවෙන් මෙය හැඳින්වෙනවා

00:15:31,639 --> 00:15:37,350
ලාභ ලබන්නේ කවුරු කොතැනද
ඉන්නේ ආදිය සොයා දැන ගැනීමෙන්

00:15:37,433 --> 00:15:42,858
ප්‍රධාන පෙළේ තාක්‍ෂණ සමාගම්වල 
අරමුණ දැන්වීම්කරුවන් සාර්ථක කිරීම

00:15:42,942 --> 00:15:48,072
මේක නව මාදිළියේ වෙ‍ෙළඳපොළක්
කිසි දිනෙක මෙවැන්නක් තිබුණේ නෑ

00:15:48,822 --> 00:15:55,371
මනුෂ්‍යයන්ගේ අනාගතය
වෙ‍ෙළඳාම් කරන වෙ‍ෙළඳපොළක්

00:15:56,080 --> 00:16:01,585
ඌරු මස්, තෙල්  සම්බන්ධයෙන්
වෙ‍ළඳපොළක් තිබෙනවා වගේ

00:16:02,127 --> 00:16:07,591
මානව අනාගතය සම්බන්ධයෙන්
වෙළඳපොළක් නිර්මාණය වෙලා

00:16:08,175 --> 00:16:13,472
මේ වෙළෙඳපොළ ඩොලර් ත්‍රිලියන
ගණනක මුදලක් නිපදවනවා

00:16:14,014 --> 00:16:22,356
අන්තර්ජාල සමාගම් ලොව ධනවත්ම 
සමාගම් කරමින්, මානව ඉතිහාසයේ 

00:16:27,361 --> 00:16:34,326
කවුරුත් දැනගන්න ඕනෑ අන්තර් ජාලයේ
කරන කියන හැමදේම නිරීක්ෂණය වෙනවා

00:16:35,035 --> 00:16:39,623
ඔබ කරන හැම දෙයක්ම
මනා ලෙස ආවේක්ෂණය වෙනවා

00:16:39,707 --> 00:16:43,836
වැඩියෙන් බැලුවේ මොන රූපයද?
කොතරම් වෙලාවක් ඒක බැලුවාද?

00:16:43,919 --> 00:16:46,796
කොතරම් අවධානයක් ඊට දුන්නාද?

00:16:50,509 --> 00:16:57,099
ඔබේ මානසික තත්වය ඔවුන් දන්නවා
පැරණි ආදර සහකරුවන් ගැන දන්නවා

00:16:57,182 --> 00:17:00,853
ඔබ රෑ තිස්සේ කරන්නේ 
මොනවද දන්නවා, හැමදේම දන්නවා

00:17:01,270 --> 00:17:06,817
ඔබ කුමන ආකාරයේ තැනැත්තෙක් වුණත්
ඔබේ ස්වභාවය, පෞරුෂත්ව ඔවුන් දන්නවා

00:17:08,193 --> 00:17:14,324
අප ගැන විස්තර ඔවුන් සතුව තිබෙනවා
මිනිස් ඉතිහාසයේ මෙතෙක් දැන නොසිටි

00:17:14,950 --> 00:17:17,367
එසේ විය යුතු නෑ

00:17:18,579 --> 00:17:22,790
දොරේ ගලා යන විදියට 
එක් රැස් කර ගන්න මේ දත්ත

00:17:22,875 --> 00:17:26,753
කිසිවකුගේ අධීක්ෂණයක් 
නොමැතිව ගබඩා කෙරෙනවා

00:17:27,463 --> 00:17:30,883
වඩ වඩාත් නිවැරදි අනාවැකි 
පළ කරන්න හැකියාව ලැබෙනවා

00:17:30,966 --> 00:17:34,552
අපි කවුරුන්ද? කරන්නේ 
මොකක්ද? ආදී වශයෙන්

00:17:36,305 --> 00:17:39,349
රැස් කරන දත්ත විකුණනවා
යනුවෙන් වැරදි මතයක් පවතිනවා

00:17:40,350 --> 00:17:44,187
රැස් කරන දත්ත අත්හරින්න
ෆේස්බුක් උනන්දු වෙන්නේ නෑ

00:17:45,522 --> 00:17:48,107
දත්තවලින් ඔවුන් කරන්නේ මොකක්ද?

00:17:51,070 --> 00:17:58,618
ඔවුන් අපේ ක්‍රියා පුරෝකථනයට
ආකෘති හදනවා, හොඳම ආකෘතියට ජය

00:18:02,706 --> 00:18:07,002
එයාගේ ක්‍රියාකාරීත්වය මන්දගාමීවෙලා
- දැන්වීම් දිස්වන ප්‍රමාණය අඩු කරමු

00:18:07,086 --> 00:18:11,340
මිතුරන් ගැනයි වැඩි අවධානය
- තිරයේ අනෙක් පැත්තේ ...

00:18:11,423 --> 00:18:15,469
ඔබට බලපෑම් කරන වූඩු 
බෝණික්කෙක් ඉන්නවා වගේ

00:18:16,845 --> 00:18:21,642
ඔබ කරන සියලු ක්‍රියාකාරකම්
නරඹපු වීඩියෝ, ලයික් කළ සියලු දේ

00:18:21,725 --> 00:18:25,354
ඒ සියල්ල යොදා ගැනෙනවා 
නිවැරදි ආකෘතියක් සකසන්න

00:18:25,896 --> 00:18:29,858
ආකෘතිය සකස් කර ගත් පසු
පුරෝකථනය කරන්න පුළුවන්

00:18:29,942 --> 00:18:31,777
අත්හදා බැලීමක් කරමු

00:18:32,569 --> 00:18:40,410
ඔබ කැමති වීඩියෝ, ඔබේ හැඟීම්
පුරෝකථනය කරන්න පුළුවන්

00:18:41,578 --> 00:18:44,372
හිනා යන වීඩියෝවලට 
එයා කැමතියි

00:18:48,627 --> 00:18:51,088
සාර්ථකයි, ඊට සමාන තවත්
වීඩියෝවක් එයාට පෙන්වන්න

00:18:51,171 --> 00:18:54,049
නොදැනෙන විදියට සපත්තු 
දැන්වීමක් මැදට දමන්න

00:18:56,426 --> 00:18:59,721
තාක්ෂණ සමාගම්වල
අරමුණු තුනක් තිබෙනවා

00:18:59,805 --> 00:19:04,684
නිශ්චිත ඉලක්කය මගින් සමාජ 
මාධ්‍යවලට ග්‍රහණය කරගන්නවා

00:19:04,884 --> 00:19:10,816
වර්ධන ඉලක්කය ඔබ සහ ඔබේ 
මිතුරන්ට ඇරයුම් කිරීම් කරනවා

00:19:11,650 --> 00:19:18,406
වෙළඳ ප්‍රචාරණ ඉලක්කය මගින් තමයි
සියල්ල අතරතුරේ මුදල් ඉපැයීම කරන්නේ

00:19:19,241 --> 00:19:21,994
ඉලක්ක බල ගැන්වෙන්නේ
ඇල්ගෝරිතම් හරහා

00:19:22,077 --> 00:19:26,165
ඔබට පෙන්විය යුත්තේ 
මොනවද තීරණය කරන්නේ ඒවා

00:19:26,623 --> 00:19:34,006
ෆේස්බුක් අපේ ජීවිත පාලනය 
කරන බව නොදන්නවා නොවේ

00:19:34,673 --> 00:19:40,594
ඒත් අප පාලනය කරන බොත්තම්
මාක් සකර්බර්ග් සතුව තිබීම ගැටලුවක්

00:19:41,305 --> 00:19:46,602
කොරියාවේ පරිශීලකයන් වැඩි කරගන්න
ඕනෑ වුණොත්, ඔහු නිසි බොත්තම ඔබනවා

00:19:47,436 --> 00:19:49,188
දැන්වීම් ටිකක් වැඩි කරලා බලනවා

00:19:49,980 --> 00:19:51,899
මුදල් ඉපැයීමේ ක්‍රම වෙනස් කරනවා

00:19:52,858 --> 00:19:59,239
හැම සමාගමක්ම බොහොම
නිවැරදිව මේ කටයුත්ත කරනවා

00:19:59,990 --> 00:20:05,704
ඒක වුණේ කොහොමද දන්නේ නෑ
- දන්නේ නෑ කියන්න බෑ

00:20:05,787 --> 00:20:10,834
රෙබෙකා ඇවිත්, ආසයි කතා කරන්න
- මමත් ආසයි

00:20:10,918 --> 00:20:14,171
විවේක කාලය, එයා සජීවීව 
සම්බන්ධ වුණොත් හොඳයි

00:20:14,755 --> 00:20:18,050
බලෙන් අවධානය ගනිමුද?
- අපොයි ඔව්

00:20:21,637 --> 00:20:24,181
ටයිලර් කතාවට ඇවිල්ලා
'හායි' කියලා පටන් ගන්න

00:20:26,016 --> 00:20:29,311
'හායි' කියලා සම්බන්ධ වෙන්න

00:20:38,070 --> 00:20:40,447
සම්බන්ධතාවක් ගොඩනැගුණා

00:20:40,948 --> 00:20:46,078
පරිශීලක අංක 079044238820
රෙබෙකා ඔවුන්ට සම්බන්ධ කරමු

00:20:46,161 --> 00:20:49,790
කදිමයි, ජීපීඑස් පිහිටීම අනුව
මේ වෙලාවේ දෙන්න එක ළඟ

00:20:55,921 --> 00:21:02,803
දැන්වීමක් පෙන්වන්න වෙලාව හරි
- කොණ්ඩේ ආලේපන වැක්ස්

00:21:03,387 --> 00:21:07,933
ලංසුකරුවන් 468 ක් ඉන්නවා
බෙන්ට ශත 3.262 කට විකුණුවා

00:21:17,109 --> 00:21:21,530
අප ලෝකයක් නිර්මාණය කරලා
අපේ මුලික සබඳතා ගොඩනගන්න

00:21:22,072 --> 00:21:28,328
විශේෂයෙන් තරුණ පරපුර වෙනුවෙන්
ඒ ලෝකයේ දෙන්නෙක් සම්බන්ධ වෙද්දී ...

00:21:29,162 --> 00:21:35,627
මුදල් ඉපැයීමක් වෙනවා රහසේම
තෙවැනි පාර්ශ්වයක් සම්බන්ධ වෙලා

00:21:36,128 --> 00:21:39,381
අප ගෝලීය නව පරම්පරාවක් 
නිර්මාණය කරලා ...

00:21:39,464 --> 00:21:44,011
සන්නිවේදනයේ සැබෑ 
අර්ථය භාවිතයට ගනිමින්

00:21:44,094 --> 00:21:47,431
වෙනස්ම සංස්කෘතියක් 
නිර්මාණය කරමින්

00:21:47,514 --> 00:21:52,641
හැමදේමට වංචාව සහ 
කපටිකම මූලික කරගෙන

00:22:07,326 --> 00:22:10,787
මේ විදියට අල්ලන් හිටියොත්
කැමරාවට පෙනෙනවා නේද?

00:22:10,871 --> 00:22:13,832
කැමරාවට පේනවාද බලන්න මං කරන දේ

00:22:13,915 --> 00:22:19,004
මොකක්? කොහොමද කළේ?
ආයෙත් කරන්න බලන්න

00:22:29,681 --> 00:22:33,268
ඒක නම් හැබෑම විජ්ජාවක්

00:22:34,728 --> 00:22:35,562
අපූරුයි නේද?

00:22:37,856 --> 00:22:41,068
මැජික් කරන්න 
ඉගෙන ගත්තේ අවුරුදු 5 දී

00:22:41,151 --> 00:22:46,781
උගත් බුද්ධිමත් වැඩිහිටියන්
රවට්ටන්න මට පුළුවන් වුණා

00:22:55,040 --> 00:22:58,960
ඉන්ද්‍රජාලිකයන්, ස්නායු විද්‍යාඥයන්
සහ මනෝ විද්‍යාඥයන් වගේ

00:22:59,044 --> 00:23:02,005
මුලින්ම තව කෙනකුගේ 
මනස තේරුම් ගත්තේ ඔවුන්

00:23:02,089 --> 00:23:07,677
මිනිස් මනස වැඩ කරන හැටි
ඔවුන් සැබැවින්ම අධ්‍යයනය කළා

00:23:09,137 --> 00:23:14,017
ඉන්ද්‍රජාලිකයා ඔබේ මනසේ ඔබ 
නොදන්නා කොටස් තේරුම් අරන්

00:23:14,101 --> 00:23:15,936
මායාව සාර්ථක වෙන්නේ එහෙමයි

00:23:16,019 --> 00:23:20,607
වෛද්‍යවරුන්, නීතීඥයන්, න්‍යෂ්ටික
මිසයිල හදන ඉන්ජිනේරුවන් ...

00:23:20,690 --> 00:23:26,113
ඔවුන් දන්නේ නෑ ඇත්තටම 
ඔවුන්ගේ මනස ක්‍රියා කරන හැටි

00:23:26,571 --> 00:23:29,990
ඒක හැමෝටම පොදු ක්‍රියාවලියක්

00:23:30,909 --> 00:23:35,580
ඒ විදියට තාක්ෂණය අපට 
කරන දේ අවබෝධ වෙනවා

00:23:36,873 --> 00:23:41,044
ස්ටැන්ෆර්ඩ් විශ්ව විද්‍යාලයේදී
මට ඉගෙන ගන්න ලැබුණා

00:23:41,628 --> 00:23:45,882
මනෝවිද්‍යාත්මකව කෙනකු
පොලඹවා ගන්න විදියට ...

00:23:45,966 --> 00:23:48,385
තාක්ෂණය සකස් කරන හැටි

00:23:48,468 --> 00:23:50,887
ඔබ හැමෝම දක්ෂයන් බව දන්නවා ...

00:23:50,971 --> 00:23:55,851
ඒත් මා උත්සහ ගන්නේ, චර්යා රටා 
සම්බන්ධයෙන් ඔබ දැනුවත් කරන්න

00:23:56,852 --> 00:24:01,148
සිලිකන් වැලි ප්‍රබල චරිත
බොහොමයක් ඒ පංතියට ගියා

00:24:01,231 --> 00:24:05,485
ෆේස්බුක් සහ ඌබර් සමාගම්වල 
ප්‍රධානීන් ඊට සම්බන්ධ වුණා

00:24:05,569 --> 00:24:09,197
තාක්‍ෂණය වඩාත් ඵලදායී ලෙස
භාවිතා කරන්න ඉගෙන ගත්තා

00:24:09,614 --> 00:24:11,782
ට්‍රිස්ටන් ඔවුන්ගෙන් කෙනෙක්

00:24:12,284 --> 00:24:14,619
ඒත්තු ගැන්වීමේ තාක්ෂණය
එක්තරා විදියක නව ක්‍රමවේදයක්

00:24:14,703 --> 00:24:16,580
හිතාමතා කරන ක්‍රියාවලියක්

00:24:16,663 --> 00:24:20,542
කෙනකුගේ හැසිරීම අප වෙනස් 
කරනවා, අපට ගැළපෙන අයුරින්

00:24:20,625 --> 00:24:23,336
ඔවුන්ගේ ඇඟිලි රිසි පරිදි හසුරුවනවා

00:24:23,420 --> 00:24:26,256
රීෆ්‍රෙෂ් කළ සැණින් 
තවත් අලුත් දෙයක් එනවා

00:24:26,339 --> 00:24:28,508
හැමවිටම එය එසේ වෙන්නයි 
හදලා තියෙන්නේ

00:24:28,592 --> 00:24:33,722
මනෝ විද්‍යාවේ මනසට ධනාත්මක 
චින්තනයක් ඇති කිරීමත් එසේමයි

00:24:33,805 --> 00:24:40,061
එය පුළුවන් වේවිද? කවදා වේවිද?
ඔබ හරිහැටි කිසිවක් දන්නේ නෑ

00:24:40,145 --> 00:24:45,817
යම් නිෂ්පාදනයක් ඔබේ සිතුවිලිවලට
කාවද්දන ක්‍රමය ඔවුන් හොඳින් දන්නවා

00:24:45,901 --> 00:24:52,000
ඔබට නොදැනෙන්න ඔවුන් ඔබ 
මෙහෙයවනවා, ඔබ දන්නෙත් නෑ

00:24:52,347 --> 00:24:56,000
ෆෝන් එක ගන්න ඔබ පොලඹවනවා

00:24:56,369 --> 00:25:01,333
අලුත් දෙයක් තියෙනවාදැයි
බලන්න ඔබේ මනස කලඹනවා

00:25:01,416 --> 00:25:06,046
ඒක අහඹුවක් නොවේ, සිතාමතා ඔබ 
පාලනයට කරන නිර්මාණ තාක්ෂණයක්

00:25:15,472 --> 00:25:18,432
ෆොටෝ ටැග් කරද්දිත් එහෙමයි

00:25:19,726 --> 00:25:24,064
ඔබට ලැබෙනවා ඊ මේල් පණිවුඩයක්
යාළුවා ඔබව ෆොටෝ එකකට ටැග් කරලා

00:25:24,147 --> 00:25:28,568
ඔබේ සිත ඔබ පොලඹවනවා
ඒ ෆොටෝ එක කුමක්දැයි බලන්න

00:25:29,152 --> 00:25:31,821
එය නොසලකා හරින්න බෑ

00:25:32,364 --> 00:25:36,326
තාක්ෂණය ආමන්ත්‍රණය 
කරන්නේ මානව පෞරුෂයට

00:25:36,409 --> 00:25:40,288
ඡායාරූපය ඊ මේල් පණිවුඩය තුළ 
අඩංගු නොවන්නේ ඇයි?

00:25:40,372 --> 00:25:42,457
එසේ කළා නම් පහසුයි නේද?

00:25:42,541 --> 00:25:45,919
ෆේස්බුක් නිර්මාණය කළ 
වැදගත්ම අංගය තමයි ඒක

00:25:46,002 --> 00:25:51,091
ක්‍රියාකාරකම් වර්ධනය කිරීමට 
හොඳ ක්‍රමයක් බව ඔවුන්ට වැටහුණා

00:25:59,349 --> 00:26:02,434
එයා කොමෙන්ට් එකක් දැම්මා
රෙබෙකා ඊට ප්‍රතිචාර දක්වනවා

00:26:02,935 --> 00:26:08,733
ඇය ටයිප් කරමින් සිටින බව 
බෙන්ට පෙන්වන්න

00:26:19,953 --> 00:26:21,329
වැඩේ හරි, ඇය පෝස්ට් කළා

00:26:21,454 --> 00:26:24,249
දැන් දෙන්නා කොමෙන්ට්ස් දානවා

00:26:25,041 --> 00:26:30,005
එයා ටයිප් කිරීම නැවැත්තුවා
- ස්වයංක්‍රීයව පුරවමු, ඉමෝජිවලින්

00:26:33,842 --> 00:26:36,803
එයා ගිනි ඉමෝජියට කැමැතියි

00:26:38,597 --> 00:26:42,726
'වර්ධන හැකින්' යනුවෙන් 
ක්ෂේත්‍රයක් තිබෙනවා

00:26:42,809 --> 00:26:47,147
ඉන්ජිනේරුවන් සිටිනවා, පරිශීලකයන්ගේ
මනෝ විද්‍යාව හැක් කරන

00:26:47,230 --> 00:26:52,861
එමගින් පරිශීලකයන් වැඩිපුර ගෙන්වා
ගන්නවා, ක්‍රියාකාරීත්වය වැඩි කරනවා

00:26:52,944 --> 00:26:57,907
සියල්ල සලකා බලද්දී
වැටහුණු දේ දන්නවාද?

00:26:57,991 --> 00:27:02,787
දින 10 දී එක් අයකුට මිතුරන් 
7 දෙනකු සොයාගන්න පුළුවන්

00:27:02,871 --> 00:27:05,498
චමත් තමයි ෆේස්බුක් 
පරිශීලක වර්ධන ප්‍රධානියා 

00:27:05,582 --> 00:27:11,004
තාක්ෂණික කර්මාන්තයේ ඔහු ප්‍රකටයි
ඔහු තමයි වර්ධන උපක්‍රම පුරෝගාමියා 

00:27:11,087 --> 00:27:14,758
ෆේස්බුක් වර්ධනයට 
ඔහුගේ උපක්‍රම හේතු වුණා

00:27:14,841 --> 00:27:21,222
ඔහු පැහැදිලි කළ උපක්‍රම අනුව
අද සමාගම් රැසක් ක්‍රියාත්මකයි

00:27:21,306 --> 00:27:28,480
සියුම් විශේෂාංග වෙනස්කම් ගැන
ඔහු පුරෝගාමී අදහසක් ඉදිරිපත් කළා

00:27:29,022 --> 00:27:34,569
ගූගල් සහ ෆේස්බුක් ආදී සමාගම්
පුංචි පුංචි අත්හදා බැලීම් කළා

00:27:34,653 --> 00:27:39,866
පරිශීලකයන්ගේ සිතැඟි වටහා ගන්න
කාලයක් තිස්සේ අත්හදා බැලීම් කරද්දී

00:27:39,949 --> 00:27:46,790
සුදුසුම ක්‍රමය අවබෝධ වෙනවා
පරිශීලකයන් ලවා අවශ්‍ය දේ කරගන්න

00:27:47,332 --> 00:27:51,920
අපි පර්යේෂණාගාර මීයෝ වගේ
- ඒක හරි, අපි හැමෝම එහෙමයි

00:27:52,545 --> 00:27:55,548
පිළිකා ප්‍රතිකාර සෙවීමට 
යොදා ගන්නා මීයෝ නොවේ

00:27:55,632 --> 00:27:58,134
ඔවුන් අපෙන් ප්‍රතිලාභ ලබනවා

00:27:58,218 --> 00:28:03,181
අපි දැන්වීම් බැලීමට පොලඹවලා
ඔවුන් මුදල් හම්බ කරනවා

00:28:03,556 --> 00:28:08,228
ෆේස්බුක් මහා පරිමාණයෙන්
මැතිවරණ අත්හදා බැලීමක් කළා

00:28:08,311 --> 00:28:13,066
ෆේස්බුක් පිටු අතරින් 
ලබා ගන්න දත්ත වලින් ...

00:28:13,400 --> 00:28:17,654
මැතිවරණයේදී වැඩි පිරිසක් 
ඡන්දය ප්‍රකාශ කිරීමට යොමු කළා

00:28:17,987 --> 00:28:24,160
එවැන්නක් කළ හැකි බව වැටහුණා
ඔවුන් වටහා ගත් දේ අප දන්නවා

00:28:24,744 --> 00:28:28,915
සැබෑ ලෝකයේ හැසිරීම් සහ හැඟීම් 
අපට හසුරුවන්න පුළුවන්

00:28:28,998 --> 00:28:32,877
පරිශීලකයා නොදැනුවත්වම

00:28:33,378 --> 00:28:37,382
ඔවුන් ඒ ගැන කිසිවක් දන්නේ නෑ

00:28:38,049 --> 00:28:41,970
කෘත්‍රිම බුද්ධි ඇන්ජින් අප යළිත් 
අප වෙත යොමු කර ගන්නවා

00:28:42,053 --> 00:28:46,224
අපේ ප්‍රතිචාර මොනවාදැයි බලන්න

00:28:47,100 --> 00:28:51,479
මකුළුවකුගේ පාද චලනය වන විදිය
ස්නායු උත්තේජනයකින් සොයනවා වගේ‍

00:28:51,938 --> 00:29:01,489
මිනිස් ක්‍රියාකාරකම්වලින් දත්ත
රැස් කරලා, ඒවායින් මුදල් උපයනවා

00:29:01,573 --> 00:29:03,450
එසේ වෙනවා අප දන්නේ නෑ

00:29:04,117 --> 00:29:07,912
ඔබ හසුරුවන්නේ කෙසේදැයි
මනෝ විද්‍යාත්මකව තේරුම් ගන්නවා

00:29:07,996 --> 00:29:12,375
ඊට පස්සේ අපි ඒක කරනවා
ෆේස්බුක් හරහා සාර්ථකව කළා

00:29:12,625 --> 00:29:17,380
ඉන්ස්ටග්‍රෑම්, වොට්ස්ඇප් 
ස්නැප්චැට්, ට්විටර් එසේ කළා

00:29:17,464 --> 00:29:22,427
ඒක මං වගේ හැකර් කෙනෙක් 
කරන විදියේ දෙයක්

00:29:22,510 --> 00:29:29,726
ඒත් මෙතැන වෙන්නේ මනෝවිද්‍යාවට
අනුව සිතුවිලි වටහා ගනිමින් පෙලඹවීමක්

00:29:29,809 --> 00:29:37,317
නිපැයුම්කරුවන්, නිර්මාණකරුවන් 
මම, අපි, මාර්ක් ආදී සියලුම දෙනා

00:29:37,400 --> 00:29:40,403
ඉන්ස්ටග්‍රෑම් කෙවින් සිස්ට්‍රෝම් 
ඇතුළු මේ සියලුම දෙනා ...

00:29:40,487 --> 00:29:46,451
කරන්නේ මොකක්දැයි හොඳින් 
දැන සිටියා; දැනදැනත් ඒක කළා

00:29:50,580 --> 00:29:54,750
බයිසිකලේ හඳුන්වා දෙද්දී
කිසිවෙක් කලබල වුණේ නෑ

00:29:55,043 --> 00:30:00,924
හැමෝම බයිසිකල් පදින්න ගත්තා
එයින් සමාජය විනාශ වෙනවා කීවේ නෑ

00:30:01,007 --> 00:30:05,303
බයිසිකලේ නිසා පවුල් අවුල් වෙනවා
සමාජය වෙනස් වෙනවා කීවේ නෑ

00:30:05,386 --> 00:30:08,723
ප්‍රජාතන්ත්‍රවාදයට 
හානි වෙනවා කීවේ නෑ

00:30:08,807 --> 00:30:11,476
මේ විදියේ කිසිම අවනඩුවක්
අපි බයිසිකලේ ගැන කීවේ නෑ

00:30:12,769 --> 00:30:18,733
මෙවලමක් විදියට ඒක අහිංසකයි
ඉවසීමෙන් නිකම්ම බලන් ඉන්නවා

00:30:19,317 --> 00:30:22,821
මෙවලමක් නොවේ නම්
ඒක බලෙන් යමක් ඉල්ලනවා

00:30:22,904 --> 00:30:26,533
ඔබව පොලඹවනවා; හසුරුවනවා 
එය ඔබෙන් දේවල් අපේක්ෂා කරනවා

00:30:26,950 --> 00:30:30,495
මෙවලම් මත පදනම් වූ තාක්‍ෂණික 
වටපිටාව අප වෙනස් කරලා

00:30:31,037 --> 00:30:35,708
ඇබ්බැහිවීම් සහ හැසිරවීම් පදනම් 
කරගත් තාක්‍ෂණික වටපිටාවකට

00:30:35,792 --> 00:30:39,420
සමාජ මාධ්‍ය, භාවිතා කිරීමට 
බලා සිටින මෙවලමක් නොවේ

00:30:39,504 --> 00:30:45,677
ඊට ආවේණික ඉලක්ක හඹා යන්න 
මනෝවිද්‍යාත්මක බලපෑම් කරන්නක්

00:30:57,564 --> 00:31:02,318
වසර කීපයක් ආපස්සට ගියොත්
මම තමයි පින්ට්‍රස්ට් සභාපති

00:31:03,152 --> 00:31:08,366
ගෙදර එද්දී, ෆෝන් එකෙන් 
ගැලවුමක් නැති බව වැටහුණා

00:31:08,449 --> 00:31:12,161
ගෙදර ඇවිල්ලත්, මගේ පුංචි දරුවෝ
දෙන්නට ආදරය දෙන්න බැරිවුණා

00:31:12,245 --> 00:31:17,542
මම කළේ ඊ මේල් යැවීමත් 
පින්ට්‍රස්ට් නැරඹීමත් තමයි

00:31:18,001 --> 00:31:22,046
දිවා කාලයේ මම පින්ට්‍රස්ට් 
සමාගමේ රැකියාවට යනවා ...

00:31:22,130 --> 00:31:26,426
අලුත් දේවල් නිර්මාණය කරනවා
අන්තිමේ ඒවාට මමත් ගොදුරු වුණා

00:31:26,509 --> 00:31:30,096
බැරිවුණා මට මාව පාලනය කරගන්න

00:31:32,307 --> 00:31:38,021
මම වඩා නැඹුරු ට්විටර්වලට
කලින් නම් රෙඩ්ඩිට්

00:31:38,204 --> 00:31:43,903
රෙඩ්ඩිට් ඇබ්බැහිවීමෙන් මට මාව
මුදාගන්න මෘදුකාංගයක් ලියන්න වුණා

00:31:45,403 --> 00:31:49,866
මම ඇබ්බැහි වෙලා ඊ මේල්වලට
ඇත්තම කීවොත්, මට ඒක දැනෙනවා

00:31:52,577 --> 00:31:54,954
ඒක හරි අමුතු දෙයක්

00:31:55,038 --> 00:32:01,628
තිරය පසුපස වෙන දේ දැන දැනත්
මට මාව පාලනය කරගන්න බැරිවුණා

00:32:01,711 --> 00:32:03,046
ඒක බය හිතෙන දෙයක්

00:32:03,630 --> 00:32:10,050
පොලඹවා ගැනීමක් වෙනවා
දැන දැනත් මම ඊට හසුවෙනවා

00:32:12,805 --> 00:32:15,725
උදේ වැසිකිළි යන්න කලින් 
ෆෝන් එක බලනවාද? 

00:32:15,808 --> 00:32:19,479
වැසිකිළිය ඇතුළේ ෆෝන් බලනවාද?
ඔබට ඇත්තේ මේ තේරීම් දෙක පමණයි

00:32:19,562 --> 00:32:26,903
මම මගේ සිතේ ශක්තියෙන් 
උත්සහ කළා, ෆෝන් පැත්තකට දාන්න

00:32:26,986 --> 00:32:32,617
දහස් වාරයක් මම මටම කියා ගත්තා
ෆෝන් එක නිදන කාමරයට එපා කියලා 

00:32:32,700 --> 00:32:37,121
ඒත් රෑ 9 පමණ වෙද්දී
ඒ සිතුවිල්ල වෙනස් වෙනවා

00:32:37,205 --> 00:32:44,295
ඔබේ සිතේ ශක්තිය අබිබවා
හැඟීම් ඔබ පොලඹවා ගැනීමක්

00:32:44,379 --> 00:32:48,091
අපි හඳුන්වා දෙනවා 'කෑම 
සේප්පුව' නමැති මේ භාජනය

00:32:48,174 --> 00:32:51,678
හිතෙන හිතෙන වෙලාවට ඔබට
කෑම කන්න ඉඩ දෙන්නේ නෑ

00:32:51,761 --> 00:32:56,724
අමතර කෑම සියල්ල 'කෑම සේප්පුවට'

00:32:57,392 --> 00:33:00,395
ඩයල් කරලා ටයිමරය සකස් කරනවා

00:33:01,479 --> 00:33:05,525
නියමිත වෙලාව වෙනකල් 
කෑම සේප්පුවේ අගුල අරින්න බෑ

00:33:05,608 --> 00:33:06,776
ඒක අපි ළඟ තියෙනවා නේද?

00:33:08,736 --> 00:33:09,654
තියෙනවා

00:33:09,737 --> 00:33:13,866
අගුල දැම්මාට පස්සේ, රිසි පරිදි
කෑම අරන් කන්න ඔබට බැරිවෙනවා

00:33:13,950 --> 00:33:17,537
සමාජ මාධ්‍ය කියන්නේ මත්ද්‍රව්‍යයක්

00:33:17,620 --> 00:33:23,084
අප සහජයෙන් අනෙක් අය එක්ක
සම්බන්ධ වෙන්න උත්සාහ ගන්නවා

00:33:23,167 --> 00:33:28,214
මොළයේ රසායනික 
ක්‍රියාවලියක් සිදුවෙනවා

00:33:28,297 --> 00:33:32,552
ඒක මිලියන ගණනක පරිණාමයේ ප්‍රතිඵලයක්

00:33:32,635 --> 00:33:35,596
එකමුතුව, ප්‍රජාවක් ලෙස ජීවත් වීම

00:33:35,680 --> 00:33:38,016
සහකරුවන් සොයා ගනිමින්
අනාගත පරම්පරාව බිහි කරමින් 

00:33:38,099 --> 00:33:41,853
සමාජ මාධ්‍ය නැමැති මාධ්‍යය
ඒකට ලොකු අත්වැලක්

00:33:41,936 --> 00:33:48,568
එකිනෙකා සමඟ සම්බන්ධ වීමට ඇති
අවශ්‍යතාව නිසා, ඒක ඇබ්බැහිවීමක් වෙලා

00:33:55,450 --> 00:33:58,453
රෑ කෑමට කලින් ස්නිප් 
1,000 ක් යවන්න ඕනෑ

00:33:58,536 --> 00:34:00,788
ස්නිප් මොකක්දැයි දන්නේ නෑ

00:34:00,872 --> 00:34:03,207
කෑම රසයි වගේ

00:34:03,291 --> 00:34:07,712
හැමදේම පැත්තකට දාලා 
කෑම රස බැලුවොත් හොඳයි

00:34:07,795 --> 00:34:13,301
ඒ නිසා සෙල් ෆෝන් මේසයෙන්
අයින් කළ යුතුයි, මම තීරණය කළා

00:34:22,518 --> 00:34:30,650
කෑම කාලා ඉවර වෙනකල්
ෆෝන් ආරක්ෂිතව තියෙනවා

00:34:47,418 --> 00:34:50,253
මැසේජ් එව්වේ කවුරුදැයි බලන්නද?
- එපා

00:34:54,759 --> 00:34:57,969
මම යනවා තව ගෑරුප්පුවක් ගේන්න

00:35:04,727 -->  00:35:09,315
අරින්න බෑ පැයකට අගුල් දැම්මා

00:35:11,192 --> 00:35:13,361
අපි මොනවා හරි ගැන කතා කරමු

00:35:13,444 --> 00:35:17,615
මගේ දේශපාලන අදහස් ගැන කියන්නම්

00:35:17,698 --> 00:35:20,785
අපොයි, දේශපාලනය නම් එපා

00:35:20,868 --> 00:35:26,624
දේශපාලනයේ වරද මොකක්ද?
- එකිනෙකාගේ අදහස් වෙනස්

00:35:36,425 --> 00:35:39,553
ගිහින් ඇයට කතා කරන්නද?
- යන්න

00:35:41,973 --> 00:35:46,686
මම මගේ දරුවන් ගැනත් 
ඔබේ දරුවන් ගැනත් කනස්සල්ලෙන්

00:35:46,769 --> 00:35:50,189
මට කොතරම් දැනුම, අත්දැකීම් තිබුණත් ...

00:35:50,273 --> 00:35:54,443
මම මගේ දරුවන් සමඟ සටනේ
ෆෝන් ගැනත්, පරිගණක ගැනත්

00:35:54,527 --> 00:35:58,197
පුතාට සැරින් සැරේ කියනවා 
දිගටම ෆෝන් එකේ ඉන්න එපා

00:35:58,281 --> 00:36:04,829
වැඩිම වුණොත් පැය 1/2 යි කියනවා
- පැය 1/2 ය, පැය 1 1/2 ක් වෙනවා

00:36:04,912 --> 000:36:08,708
ඇත්තම කීවොත් 
පැය තුනයි විනාඩි 45 ක්

00:36:11,377 --> 00:36:15,506
එතරම් වෙලා ඉන්නවා වෙන්න බෑ

00:36:15,590 --> 00:36:24,390
මම දරුවන්ට හැමදාම මතක් කරනවා
ජීවිතේ සමබරව විඳින්න ඕනෑ කියමින්

00:36:24,473 --> 00:36:26,267
ඇබ්බැහි වීමේ අවදානම කියනවා

00:36:26,350 --> 00:36:31,772
කීවා හරි, දිනකට පැය 2 යි, විනාඩි 50 ක්
- ටිකක් වැඩිපුර කාලය ගතවෙලා තමයි

00:36:31,856 --> 00:36:37,361
පසුගිය දින 7 ඇතුළත
ඉන්ස්ටග්රෑම් පැය 7යි, විනාඩි 13 යි

00:36:39,572 --> 00:36:43,201
මගේ ස්ක්‍රීන් එක පුපුරලා

00:36:44,410 --> 00:36:45,995
මං මොකක්ද කළ වරද?

00:36:46,078 --> 00:36:49,040
ෆෝන් භාවිතය වැඩියි අම්මට
උපදෙස් දෙන්නේ ඔයා

00:36:49,373 --> 00:36:53,878
රෑ කෑමට ෆෝන් ඕනෑ නෑ
- ඔයා හිතන විදිය වැරදියි

00:36:56,047 --> 00:37:00,593
පුළුවන් නම් සතියක් ෆෝන් නැතිව ඉන්න 

00:37:01,135 --> 00:37:09,518
සතියක් ෆෝන් නැතිව හිටියොත්
අලුත් ස්ක්‍රීන් එකක් දාලා දෙනවා

00:37:10,978 --> 00:37:16,859
එහෙනම් දැන්ම පටන් ගන්නවා
- දැන් ඉඳලා

00:37:16,943 --> 00:37:19,111
ෆෝන් එක මෙහෙන් තියලා යන්න

00:37:19,862 --> 00:37:25,076
ඔන්න තිබ්බා, ආයේ ෆෝන් ගන්නේ නෑ

00:37:27,787 --> 00:37:30,331
දැන් ඉඳන් සතියක්
- සතියක්

00:37:31,457 --> 00:37:37,128
ෆෝන් නැතිව ඉන්න පුළුවන් වේවිද?
- දන්නේ නෑ අපි බලමු, ඔයා කන්න

00:37:44,220 --> 00:37:47,263
මදැයි හැමෝම එකට කෑවා

00:37:47,682 --> 00:37:53,896
තාක්‍ෂණික නිෂ්පාදන කරන්නේ
ළමා මනෝවිද්‍යාඥයන් නොවෙයි

00:37:53,980 --> 00:37:58,734
ඇල්ගොරිතම් නිර්මාණය කරන්නේ
තවත් වීඩියෝ ඔබට පෙන්වන විදියට

00:37:58,818 --> 00:38:02,321
ලස්සනට ඡායාරූප පෝස්ට් 
කරන්න පොලඹවන

00:38:16,752 --> 00:38:20,548
ඔබේ අවධානය ඇද ගන්නවා 
විතරක් නොවෙයි

00:38:21,173 --> 00:38:26,304
මොළයේ ගැඹුරට සිතුවිලි කාවද්දනවා

00:38:26,387 --> 00:38:29,765
දරුවන්ගේ වටිනාකම,
අනන්‍යතාව උදුර ගන්නවා

00:38:52,371 --> 00:38:59,128
අප පරිණාමය වුණේ ගෝත්‍රයේ 
අනෙක් අය දක්වන ආකල්ප අනුව

00:38:59,837 --> 00:39:04,550
දැන් අප කෙසේ විය යුතුදැයි තීරණය 
කරන්න බොහෝ දෙනෙක් ඉන්නවා

00:39:04,633 --> 00:39:10,348
දැන් සෑම මිනිත්තු 5 කට වරක් 
මනසට ඒක දැනුම් දෙනවා

00:39:10,431 --> 00:39:13,142
එවැන්නකට අපේ මනස 
ඔරොත්තු දෙන්නේ නෑ

00:39:15,394 --> 00:39:19,982
අප සම්පූර්ණයි යන හැඟීම අපට
ලැබීම ජීවිතේ ගෙන යන්න හේතුවක්

00:39:20,733 --> 00:39:25,154
අපට අනුමැතිය හිමිවන්නේ
සමාජ මාධ්‍ය සංකේත හරහා

00:39:25,237 --> 00:39:28,407
ඒකට වටිනාකමක් එක් කරනවා

00:39:29,825 --> 00:39:33,120
ඒක ව්‍යාජ, වෙනස්වන ජනප්‍රියත්වයක්

00:39:33,913 --> 00:39:39,919
කෙටි කාලීනයි, අවසානය 
ඔබ තවත් හිස් පුද්ගලයකු වීම

00:39:41,295 --> 00:39:47,176
විෂම චක්‍රයට ඔබ ඇතුළත් වී අවසන්
මීළඟට කළ යුතු දේ කල්පනා කරනවා

00:39:48,260 --> 00:39:51,846
බිලියන දෙකක මනස 
වැඩ කරන්නේ මෙහෙමයි

00:39:51,930 --> 00:39:56,435
තව කෙනකුගේ හැඟීම්වලට 
ප්‍රතිචාර දක්වමින් ජීවත් වෙනවා

00:39:56,977 --> 00:39:59,229
ඒක හොඳ දෙයක් නොවේ

00:40:00,856 --> 00:40:03,484
විශාල වැඩීමක් තිබෙනවා ...

00:40:03,567 --> 00:40:07,529
මානසික අවපීඩනය සහ කාංසාවට
පත්වන ඇමෙරිකන් යෞවනයන්ගේ

00:40:07,612 --> 00:40:10,950
2011 සිට 2013 දක්වා

00:40:11,033 --> 00:40:15,371
අපේ රටේ 100,000 ක් 
යොවුන් ගැහැනු දරුවන්

00:40:15,454 --> 00:40:19,917
සෑම වසරකම රෝහල්ගත කරනවා
දිවි නසා ගන්න උත්සහ ගන්නා නිසා

00:40:20,000 --> 00:40:23,921
2010 සහ 2011 කාලයේ එම ගණන 
ස්ථාවර මට්ටමක තිබුණා

00:40:24,004 --> 00:40:25,756
ඊට පස්සේ හුඟක් ඉහළ ගියා

00:40:28,759 --> 00:40:32,513
වැඩිහිටි යෞවනියන් සඳහා 
එය සියයට 62 කින් ඉහළ යෑමක්

00:40:33,848 --> 00:40:38,310
බාල වියේ ගැහැනු ළමයින් සඳහා 
එය සියයට 189 කින් ඉහළ යෑමක්

00:40:40,312 --> 00:40:43,524
දිවි නසා ගැනීමේ ප්‍රවණතාවත් ඉහළයි

00:40:44,775 --> 00:40:49,196
අවුරුදු 15 ත් 19 ත් අතර යෞවනියන් 
දිවි නසා ගැනීම සියයට 70 කින් වැඩියි

00:40:49,280 --> 00:40:51,699
සියවසේ පළමු දශකය සසඳන විට

00:40:52,158 --> 00:40:57,663
ළාබාල ගැහැනු ළමයින්ගේ අනුපාතය
සියයට 151 කින් ඉහළ ගිහිල්ලා

00:40:58,831 --> 00:41:01,709
සියල්ලටම හේතුව සමාජ මාධ්‍ය තමයි

00:41:04,044 --> 00:41:10,342
1996 වසරේ හෝ ඊට පසු උපත 
ලැබූ දරුවන් තමයි පළමු පරම්පරාව

00:41:10,426 --> 00:41:13,636
පාසල් වියේදී සමාජ මාධ්‍යවලට යොමු වුණු

00:41:15,890 --> 00:41:17,600
ඔවුන් කාලය ගත කරන්නේ කොහොමද?

00:41:19,727 --> 00:41:22,730
පාසල් ගිහින් ආ වෙලාවේ ඉඳලා ෆෝන් එකේ

00:41:24,315 --> 00:41:30,529
දරුවෝ හැමෝම ඉන්නේ 
මානසික අවපීඩනයකින්

00:41:30,613 --> 00:41:37,536
අවදානම් ගන්නවා අඩුයි
හුඟක් අය රියදුරු බලපත්‍ර අරන් නෑ

00:41:38,954 --> 00:41:44,251
එළියට ගිහින් ජීවිතේ විඳලා නෑ
ආදර සබඳතාවල පැටලිලා නෑ

00:41:47,505 --> 00:41:50,715
මුළුමනින්ම වෙනස් පරම්පරාවක්

00:41:53,177 --> 00:41:57,306
ඔවුන්ගේ ජීවිතවලට සිදුවුණු
සෑම අකරතැබ්බක් පසුපසම ...

00:41:57,389 --> 00:42:01,267
කම්පනයට, බියට පත්වුණු
අම්මා, තාත්තා ඉන්නවා ...

00:42:01,351 --> 00:42:05,353
අපේ දරුවට මොකද වෙන්නේ සිතන

00:42:19,411 --> 00:42:21,413
හොඳටම පැහැදිලියි 

00:42:22,873 --> 00:42:28,128
සේවාවන් නිසා මිනිස්සු මැරෙනවා
දිවිනසා ගන්න පොලඹවනවා

00:42:29,088 --> 00:42:32,300
අම්මලා තාත්තලා කැමැති නෑ

00:42:32,384 --> 00:42:36,887
තාක්ෂණික නිර්මාණකරුවන්ට 
අවශ්‍ය විදියට දරුවන් හැඩ ගස්වන්න

00:42:36,971 --> 00:42:42,560
පාසල් වැඩ අතපසු කරගෙන
යථාර්ථවාදී නොවන ප්‍රමිතීන් හඹා යන්න

00:42:42,643 --> 00:42:44,687
කවුරුන්ද කැමැති ඒකට

00:42:45,104 -->  00:42:48,482
ඉස්සර තිබුණු ආරක්ෂාව දැන් නෑ

00:42:48,566 --> 00:42:52,778
පොඩ්ඩන් වෙනුවෙන් නිපදවන 
කාටූන්වල තිබුණා නිසි ප්‍රමිතියක්

00:42:52,861 --> 00:42:56,574
පොඩ්ඩන්ගේ කාටූන් අතරතුරේ
මනස කලඹන දැන්වීම් පෙන්නුවේ නෑ

00:42:57,366 --> 00:43:04,915
අද පොඩ්ඩන්ගේ යූ ටියුබ්වල
හිතුමතේ දැන්වීම් පළ කරනවා

00:43:04,999 --> 00:43:07,710
ආරක්ෂාව සහ රෙගුලාසි කිසිවක් නෑ

00:43:18,304 --> 00:43:22,141
අලුත්ම විධියේ පරපුරක් බිහි කරනවා

00:43:23,434 --> 00:43:29,148
අපට සාංකාව, තනිකම,
බිය දැනුණාම

00:43:29,231 --> 00:43:36,488
සමාජ මාධ්‍ය නමැති ඩිජිටල් 
සූප්පුව අපව සනසන්න ඉන්නවා

00:43:53,881 --> 00:43:58,969
ෆොටෝ ෂොප් ඉන්ජිනේරුවන්
ඔබ පාලනය කරන්න හදන්නේ නෑ

00:43:59,053 --> 00:44:02,431
කෘත්‍රිම බුද්ධිය යොදාගෙන 
ඔබ ඇබ්බැහි කරගන්නේ නෑ

00:44:02,514 --> 00:44:06,516
ඔබේ ජීවිතේට බලපෑම් කරන්න
දැන්වීම්කරුවන්ට ඉඩ දෙන්නේ නෑ

00:44:06,600 --> 00:44:11,000
ඔවුන්ට ඕනෑ විදියට වර්ණ සංයෝජන නෑ
ඔබ පොලඹවා ගන්න හදන්නේ නෑ

00:44:11,148 --> 00:44:15,985
අප මේ දකින්නේ නව බලයක්
සහ නව ආකාරයක බලපෑම් කිරීමක්

00:44:16,070 --> 00:44:22,785
ඇබ්බැහිවීම සහ බලපෑම් කිරීම
එකිනෙකාට වෙනස් වෙන්න පුළුවන්

00:44:22,868 --> 00:44:28,749
පුවත්පත්, මුද්‍රණාල ආ විට
එ්වායින් බලපෑම් එල්ල වුණා

00:44:28,832 --> 00:44:36,423
රූපවාහිනිය ආ විට ඒක වෙනස් වුණා
- අතීතයත් එක්ක සන්සන්දනය එපා

00:44:36,507 --> 00:44:42,054
මගේ අදහස අලුත් වෙනස්වීම් 
කාලයෙන් කාලයට එනවා ...

00:44:42,137 --> 00:44:45,099
අප මේ දකින පෙරළියත් අලුත් වෙනසක් 

00:44:45,182 --> 00:44:51,188
සමහරුන්ගේ අදහස අපි මේ 
උපාංග සමඟ ජීවත් වෙමු යන්නයි

00:44:51,271 --> 00:44:53,732
අනෙක් සියල්ල සමඟ ජීවත් 
වෙන්න ඉගෙන ගත්තු ආකාරයට 

00:44:53,816 --> 00:44:56,694
ඒත් මේක වෙනස්ම‍ පෙරළියක්

00:44:57,486 --> 00:45:00,155
වඩාත්ම භයානක දේ තමයි ...

00:45:00,239 --> 00:45:04,410
දිනෙන් දින දියුණු වෙන
තාක්ෂණය එය මෙහෙයවීම

00:45:05,869 --> 00:45:09,081
1960 දශකයේ සිට අද දක්වා ...

00:45:09,873 --> 00:45:13,500
ප්‍රොසෙස් කිරීමේ හැකියාව 
ත්‍රිලියන ගුණයකින් ඉහළ ගිහින්

00:45:13,794 --> 00:45:18,340
අප සතුව ඇති වෙනත් කිසිවක් 
එම අනුපාතයට දියුණු වෙලා නෑ

00:45:18,424 --> 00:45:22,177
මෝටර් රථ නිෂ්පාදනය
වේගවත් දෙගුණයකින් පමණයි

00:45:22,261 --> 00:45:25,013
අනෙක් සියල්ල බොහොම පහළින්

00:45:25,347 --> 00:45:31,353
මානවයන් වශයෙන් අප හෝ
අපේ මොළය පරිණාමය වෙලා නෑ

00:45:37,401 --> 00:45:43,866
මනුෂ්‍ය කය සහ මනස එතරම් 
වේගයෙන් වෙනස් වෙන්නේ නෑ

00:45:56,837 --> 00:46:00,924
ජාන තාක්ෂණයෙන් අලුත් 
මනුෂ්‍යයන් නිපදවන්න පුළුවන්

00:46:01,008 --> 00:46:05,220
ඔබ ජීවත් කරවන ඔබේ මොළය 
එසේත් නැතිනම් දෘඪාංගය

00:46:05,304 --> 00:46:07,222
අවුරුදු මිලියන ගණනක් පරණයි

00:46:07,306 --> 00:46:13,562
ඔබට පෙනෙන තිරය පිටුපස සිටින
ඉන්ජිනේරුවන් සහ සුපිරි පරිගණකවල ...

00:46:13,645 --> 00:46:19,693
ඉලක්කය, ඔබේ ඉලක්කයට වෙනස්
ඉතිං, මේ අයගෙන් දිනන්නේ කවුරුද?

00:46:25,699 --> 00:46:29,828
එයා අපට අහිමි වුණේ කොහොමද?
- එයාගේ හැසිරීම වෙනස් වෙලා‍

00:46:29,912 --> 00:46:32,080
කාගේ හෝ බලපෑමට යට වෙලා ද? 

00:46:32,164 --> 00:46:34,082
දැන්වීම් වැඩි වුණා වෙන්න පුළුවන්

00:46:34,166 --> 00:46:37,795
වරදක් වෙලා, එයාව ආපසු 
ගෙන්වා ගන්න ඕනෑ

00:46:39,713 --> 00:46:44,051
කෘත්‍රිම බුද්ධිය ගැන කියද්දී සිහියට
එන්නේ ලෝකය විනාශ කරන දේවල්

00:46:44,134 --> 00:46:48,221
ආනෝල්ඩ් ෂ්වාසනෙගර්ගේ ටර්මිනේටර්

00:46:48,764 --> 00:46:50,933
නියමුවන් නැති ඩ්‍රෝන යානා

00:46:51,016 --> 00:46:52,684
මිනිසුන් වනසන කෘත්‍රිම බුද්ධිය

00:46:53,644 --> 00:46:59,817
මිනිසුන් දන්නේ නෑ දැනටමත්
කෘත්‍රිම බුද්ධිය ක්‍රියාත්මක වෙනවා

00:46:59,900 --> 00:47:03,237
දැන් කෘත්‍රිම බුද්ධිය සාමාන්‍ය දෙයක් 

00:47:03,320 --> 00:47:09,451
ගූගල් වැනි සමාගම්වල 
මහා විශාල කාමර තිබෙනවා

00:47:10,327 --> 00:47:13,121
සමහර ඒවා පොළොව යට, වතුර යට

00:47:13,205 --> 00:47:17,835
පිරිලා තියෙන්නේ පරිගණකවලින්
දස දහස් ගණනක් පරිගණක 

00:47:18,460 --> 00:47:22,923
සියල්ල එකිනෙක සම්බන්ධයි
සංකීර්ණ වැඩසටහන් ක්‍රියාත්මකයි

00:47:23,006 --> 00:47:28,595
නිරන්තරයෙන් සිදුවන්නේ
තොරතුරු හුවමාරුව පමණයි

00:47:28,679 --> 00:47:31,014
එකිනෙකට වෙනස් විවිධ 
වැඩසටහන් ක්‍රියාත්මකයි

00:47:31,348 --> 00:47:35,227
එසේ වෙන්නේ සරල ඇල්ගොරිතම්වලින් 
නැතිනම් සංකීර්ණ ඇල්ගොරිතම්වලින්

00:47:35,310 --> 00:47:39,521
සංකීර්ණ ඒවාට 
කෘත්‍රිම බුද්ධිය කියන්න පුළුවන්

00:47:40,065 --> 00:47:43,568
ඇල්ගොරිතම් කියන්නේ අදහස්
පරිගණක කේත ගත කිරීමයි

00:47:45,070 --> 00:47:51,577
ඇල්ගොරිතම්වලින් කෙරෙන්නේ 
සාර්ථකත්වයේ යම් අර්ථ දැක්වීමක්

00:47:52,244 --> 00:47:57,124
මුදල් ඉපැයීමේ අරමුණින් 
ඇල්ගොරිතම් හදනවා නම් ...

00:47:57,207 --> 00:48:01,211
සමාගම් එසේ කරන්නේ
ඔවුන්ගේ සාර්ථකත්වය වෙනුවෙන්

00:48:01,587 --> 00:48:02,671
ලාබ ලබන්න

00:48:03,130 --> 00:48:07,384
ඔබ පරිගණකයට දෙනවා 
කිසියම් ඉලක්කයක් ...

00:48:07,467 --> 00:48:12,598
පරිගණකය, තනිවම අවබෝධ 
කර ගන්නවා ඒක කරන අයුරු

00:48:12,681 --> 00:48:15,977
දිනෙන් දින සාර්ථකත්වය කරා යනවා

00:48:16,060 --> 00:48:19,438
වැඩි වෙලාවක් නිෂ්පාදනය මත 
රැඳෙන්න පරිශීලකයා පොලඹවන්න

00:48:19,521 --> 00:48:23,901
ඉලක්කයට යන්න කරන දේ
කිසිවකු හරිහැටි දන්නේ නෑ

00:48:23,984 --> 00:48:30,657
මනුෂ්‍යයෙක් ලියුවත්, ඇල්ගොරිතම්වලට 
තියෙනවා ඊට ආවේණික මතකයක්

00:48:30,741 --> 00:48:35,037
ලියන විදිය අනුව, වෙනස් වීම් 
ඉබේම සිදුවෙනවා

00:48:35,120 --> 00:48:40,000
අතළොස්සක් පමණයි දන්නේ
ෆේස්බුක් සහ ට්විටර් ආදී සමාගම්වල

00:48:40,083 --> 00:48:43,795
පද්ධති ක්‍රියාත්මක වන ආකාරය 

00:48:43,879 --> 00:48:49,551
එහෙම වුණත්, ඔවුන් පවා
හැමදේම සිදුවන හැටි දන්නේ නෑ

00:48:49,968 --> 00:48:55,474
මනුෂ්‍යයන් හැටියට අපෙන් 
පද්ධතිවල පාලනය ගිලිහිලා

00:48:55,891 --> 00:48:59,603
අප දකින තොරතුරු පාලනය 
කරන්නේ යන්ත්‍ර මගින්

00:48:59,686 --> 00:49:02,189
අප ඔවුන්ව පාලනය කරනවාට
වැඩිය ඔවුන් අප පාලනය කරනවා

00:49:02,522 --> 00:49:07,319
ඔහු සිටින ප්‍රදේශය අනුව 
සන්සන්දනය කිරීම් කරනවා

00:49:07,402 --> 00:49:09,571
මනස ක්‍රියාත්මක වන ආකාරය 
අනුමාන කරනවා

00:49:09,655 --> 00:49:13,700
ඔහු වගේ හැසිරෙන 13,694 ක්
ඔහු සිටින කලාපයේ ඉන්නවා

00:49:13,784 --> 00:49:17,704
ඔහු ආකර්ෂණය කරන්න
සිත් ගන්නා දෙයක් කරන්න ඕනෑ

00:49:17,788 --> 00:49:21,875
සාමාන්‍ය දේවල් හරියන්නේ නෑ
සිත්ගත් කෙල්ල හරියන්නේ නෑ

00:49:22,334 --> 00:49:29,299
විශ්ලේෂණ දත්ත අනුව පේනවා
විවාහ වුණත්, සාර්ථක වෙන්නේ නෑ

00:49:29,383 --> 00:49:32,010
ඒක හරියන්නේ නෑ

00:49:32,302 --> 00:49:39,017
අපි ඡායාරූප ගැන, ඉන්විටේෂන් ගැන
පණිවුඩ ගැන දැනුම් දුන්නා හරිගියේ නෑ

00:49:39,101 --> 00:49:47,776
පරිශීලක 01265923010 හොඳයි නේද?
- බෙන් ඇගේ පෝස්ට් ලයික් කරනවා

00:49:47,859 --> 00:49:50,445
සියයට 92.3 ක සම්භාවිතාවක් 
බෙන් ආපසු ග්‍රහණය කර ගන්න

00:49:50,529 --> 00:49:53,030
ඇනා ගැන ඔහු උනන්දු කළොත්

00:49:56,535 --> 00:49:58,494
අලුත් මිතුරිය හඳුන්වා දෙමු

00:50:25,689 --> 00:50:27,441
ඒ ගමන මොකක්ද?

00:50:41,413 --> 00:50:44,374
වැඩේ හරි, එයා ආයෙත් ආවා
- මුදල් ඉපැයීම පටන් ගනිමු

00:50:44,458 --> 00:50:49,087
බෙන් ලෝකය සමඟ සම්බන්ධ කරමු
- ඔහු ආසා විස්තර දකින්න සලස්වනවා

00:50:49,755 --> 00:50:54,717
අපි මේ පෙන්වන දේවල්වලින්
බෙන්ට නරකක් වෙන්නේ නැද්ද?

00:52:20,929 --> 00:52:24,349
ඔබ ෆේස්බුක් සම්බන්ධ වෙලා

00:52:24,766 --> 00:52:31,312
ෆේස්බුක් කෘත්‍රිම බුද්ධිය ඉතාම
අපූරුවට ඔබව ග්‍රහණයට අරන්

00:52:31,396 --> 00:52:37,404
ඔබේ මීළඟ පියවර ෆේස්බුක්
දන්නවා, හැබැයි ඔබ දන්නේ නෑ

00:52:37,821 --> 00:52:39,656
ඒක සාධාරණ සටනක් නොවේ

00:52:41,575 --> 00:52:44,869
බෙන් පාසල් යන්න වෙලාව හරි

00:53:05,182 --> 00:53:06,057
යමු

00:53:07,225 --> 00:53:09,269
පාසල් යන්න පරක්කු වෙනවා

00:53:37,380 --> 00:53:42,969
තාක්‍ෂණය මිනිස් ශක්තිය
හා බුද්ධිය යටපත් කර ගෙන

00:53:43,053 --> 00:53:47,015
මිනිස් අපේ රැකියා අහිමි කරන
අපට වඩා බුද්ධිමත් නව තාක්ෂණය

00:53:48,141 --> 00:53:55,315
තාක්ෂණයට පුළුවන් අපේ දුර්වලකම්
හඳුනා ගනිමින් අපට විරුද්ධව යන්න

00:53:57,484 --> 00:54:01,913
ඇබ්බැහිවීමේ පටන් සිදුවන සියල්ල

00:54:02,000--> 00:54:09,913
තාක්ෂණය, මනුෂ්‍ය 
ස්වභාවය අබිබවා යෑමක්

00:54:10,538 --> 00:54:13,500
මනුෂ්‍යත්වය පරාජය කිරීමක්

00:54:41,736 --> 00:54:44,656
මම කියන්න හදන්නේ මෙයයි

00:54:45,198 --> 00:54:49,828
ෆේස්බුක් වැනි සමාජ මාධ්‍යවලින්
ලැබෙන දේවල් ඉතා හානි කරයි

00:54:49,911 --> 00:54:51,454
විකිපීඩියා උදාහරණයකට ගනිමු

00:54:52,956 --> 00:55:00,297
හැමෝටම දකින්න ලැබෙන්නේ 
එකම අන්තර්ගතය

00:55:00,380 --> 00:55:07,178
විකිපීඩියා, පුද්ගලයාගෙන් පුද්ගලයාට
වෙනස් විදියට තොරතුරු දුන්නොත්

00:55:07,262 --> 00:55:13,435
එසේ කරන්න මුදල් ලැබුණොත්
විකිපීඩියා ඔබ ගැන ඔත්තු බලාවි

00:55:13,518 --> 00:55:21,818
තව තවත් ඔබ අල්ලා ගෙන මුදල්
සොයාවි, දැන්වීම්කරුට ඕනෑ විදියට

00:55:22,444 --> 00:55:26,823
එහෙම දෙයක් සිතන්න පුළුවන්ද?
ෆේස්බුක්වල වෙන්නේ එවැනි දෙයක්

00:55:26,906 --> 00:55:28,992
යූ ටියුබ්වල වෙන්නේ එවැන්නක්

00:55:29,075 --> 00:55:31,786
ගූගල් ගිහින් "දේශගුණික විපර්යාස" 
කියලා ටයිප් කළොත් ...

00:55:31,870 --> 00:55:34,998
ඔබ ජීවත්වන ස්ථානය අනුව 
වෙනස් විදියේ පිළිතුරු ලැබෙනවා

00:55:36,166 --> 00:55:40,462
'දේශගුණික විපර්යාස ප්‍රෝඩාවක්' ආදී 
වශයෙන් ස්වයංක්‍රීය පිළිතුරු ලැබෙනවා

00:55:40,545 --> 00:55:44,841
'දේශගුණික විපර්යාස නිසා සොබාදහම 
විනාශ වෙනවා' කියලත් කියාවි

00:55:44,924 --> 00:55:48,428
දේශගුණික විපර්යාස ගැන
මේ කිසිවක් ඇත්ත නොවෙයි

00:55:48,511 --> 00:55:51,097
ඔබ ඉන්න ස්ථානය අනුව පිළිතුර විවිධයි

00:55:51,181 --> 00:55:54,100
ගූගල් ඔබේ රුචිකත්වය
වටහා ගෙන පිළිතුරු සපයනවා

00:55:54,851 --> 00:55:58,021
එකිනෙකාට සමීප 
මිතුරන් දෙදෙනකු පවා ...

00:55:58,104 --> 00:56:00,190
එකම මිතුරන් පිරිසක් සිටියත් ...

00:56:00,273 --> 00:56:05,403
ඒ දෙන්නම ෆේස්බුක් තුළින්
එකම දේ දකිනවා සිතනවා ඇති

00:56:05,487 --> 00:56:08,448
ඒත් රුචිකත්වය අනුව දකින දේ වෙනස්

00:56:08,531 --> 00:56:13,035
ඔවුන් දකින දේ කුමක් විය යුතුදැයි
තීරණය කරන්නේ පරිගණක බුද්ධිය

00:56:14,329 --> 00:56:18,416
ඒක හරියට 'ටෲමන් ෂෝ'
චිත්‍රපටයේ සිදුවන දේට සමානයි

00:56:18,500 --> 00:56:23,671
හැම කෙනකුටම ඔවුන්ට 
ආවේණික යථාර්ථයක් සහ කරුණු

00:56:23,755 --> 00:56:30,095
ටෲමන්ට ඇත්ත වැටහුණේ 
නැත්තේ ඇයි? මේ වනතුරු

00:56:31,054 --> 00:56:35,141
නිර්මාණය කළ ලෝකයේ 
යථාර්ථය ඔහු පිළිගත්තා

00:56:36,476 --> 00:56:41,064
කල් යද්දී, ඒත්තු ගැන්වෙනවා
හැමෝම ඔබ සමඟ එකඟයි වගේ

00:56:41,147 --> 00:56:44,067
ඔවුන්ගේ අදහස් ඔබට පෑහෙනවා

00:56:44,567 --> 00:56:49,072
අන්න ඒ තත්ත්වයට පත් වුණු පසු
පහසුවෙන් ඔබව රැවටිය හැකියි

00:56:49,155 --> 00:56:51,741
විජ්ජාකාරයෙක් ඔබව රවටනවා වගේ

00:56:51,825 --> 00:56:55,370
විජ්ජාකාරයෙක් කාඩ් පෙන්වලා 
කියනවා කැමැති එකක් ගන්න ...

00:56:55,453 --> 00:56:58,164
කාඩ් පෙළ ගස්වා තියෙන්නේ 
ඔහුට ඕනෑ විදියටයි

00:56:58,456 --> 00:57:00,583
තෝරා ගන්නේ ඔහුට ඕනෑ කාඩ්පත

00:57:00,667 --> 00:57:03,169
ෆේස්බුක් ක්‍රියා කරන්නේ එහෙමයි

00:57:03,253 --> 00:57:06,172
ඔබට ඕනෑ විදියට වැඩ වෙන්නේ නෑ

00:57:06,256 --> 00:57:11,302
විජ්ජාකාරයෙක් වගේ, ෆේස්බුක්ට
ඕනෑ විදියටයි ඔබ හැසිරෙන්නේ

00:57:11,386 --> 00:57:15,474
අප හැමෝම ක්‍රියාත්මක වන්නේ 
වෙනස් වුණු කරුණු සමූහයක් මත

00:57:15,658 --> 00:57:20,545
තොරතුරු ගණනය කිරීමට හෝ 
භාවිතයට හෝ හැකියාවක් නෑ

00:57:20,728 --> 00:57:28,319
ඔබ නිර්මාණය කරන ලෝකය
ලෝක දෘෂ්ටියට පෑහෙන්නේ නෑ

00:57:32,532 --> 00:57:34,701
වෙනස් විදියට බැලුවොත් ...

00:57:35,243 --> 00:57:38,746
මිනිසුන් මෙතරම් මෝඩ ඇයි හිතෙනවා

00:57:38,830 --> 00:57:44,627
මම හැමවිටම තොරතුරු දකිනවා
ඇයි අනෙක් අයට නොපෙනෙන්නේ

00:57:44,711 --> 00:57:48,297
පිළිතුර, ඔවුන්ට පෙනෙන්නේ නෑ තමයි

00:57:52,093 --> 00:57:55,093
රිපබ්ලිකන්වරු කවුරුද?
- දන්නේ නෑ

00:57:55,193 --> 00:57:59,000
ඩිමොක්‍රටික් පක්ෂය අපරාධ කල්ලියක්
සැබෑ දේශපාලන පක්ෂයක් නොවේ

00:57:59,050 --> 00:58:03,188
සමාජ මාධ්‍ය අනුව බලද්දී
ඇමෙරිකානුවන් අතරේ බෙදීමක් 

00:58:03,271 --> 00:58:09,152
පෞද්ගලික හා දේශපාලන මතවාද අනුව

00:58:11,738 --> 00:58:16,826
රිපබ්ලිකන්වරුන්ගෙන් වැඩි දෙනාට
අනුව ඩිමොක්‍රටික්වරුන් තර්ජනයක්

00:58:16,910 --> 00:58:20,580
ඩිමොක්‍රටික්වරුන්ගෙන් වැඩි දෙනාට
අනුව රිපබ්ලිකන්වරුන් තර්ජනයක්

00:58:20,663 --> 00:58:24,417
දේශපාලනික මතවාද ගැන
නිරන්තරයෙන් කතා කරනවා ...

00:58:24,501 --> 00:58:28,046
රූපවාහිනී නාළිකා ඔස්සේ

00:58:28,129 --> 00:58:31,007
මාධ්‍යවලට තියෙන ගැටලුව ...

00:58:31,090 --> 00:58:35,762
ඔවුන්ගේ ව්‍යාපාර ආකෘතිය ඇත්තේ
අප අවධානය දැන්වීම්කරුවන්ට විකිණීම

00:58:35,845 --> 00:58:39,890
එය පහසු කරන, වඩාත් කාර්යක්ෂම
තැන අන්තර්ජාලයයි

00:58:40,141 --> 00:58:44,145
මම යූ ටියුබ් නිර්දේශයන් 
මත වැඩ කරමින් සිටිද්දී ...

00:58:44,229 --> 00:58:47,148
ඇල්ගෝරිතමයක් ගැන 
මම කනස්සල්ලට පත්වුණා

00:58:47,232 --> 00:58:50,401
සිදුවුණේ ප්‍රතිවිරුද්ධ මත නිර්මාණය

00:58:50,485 --> 00:58:57,617
ඒ ප්‍රති විරුද්ධ මතවලට පුළුවන්
පරිශීලකයන් ග්‍රහණයේ තබා ගන්න

00:58:58,785 --> 00:59:02,288
ගුරුවරුන් දරුවන්ට උගන්වන්නේ
ඒ වෙනුවෙන් ඔවුන් වැටුප් ලබන නිසා

00:59:04,916 --> 00:59:08,795
අද ඔයාට පාපන්දු පුහුණුව නැද්ද?
- යන්න කලින් ප්‍රවෘත්ති බලනවා

00:59:11,589 --> 00:59:14,008
ඔයා බලන දේ ප්‍රවෘත්ති නොවෙයි

00:59:15,552 --> 00:59:18,846
ඔයා නිතරම කියනවා
ලෝකය ගැන දැනුවත් වෙන්න

00:59:19,305 --> 00:59:22,140
ඔයා බලන්නේ බොරු ප්‍රචාරණ

00:59:24,769 --> 00:59:29,232
බෙන්, ඇත්තටමයි කියන්නේ
යන්න, පාපන්දු පුහුණු වෙන්න

00:59:35,154 --> 00:59:41,077
මම මේ දේවල් කියන්නේ
ඔයාලා නොමඟ යන නිසා

00:59:41,160 --> 00:59:46,833
ඇල්ගොරිතම නිර්මාණය කරලා
තියෙන්නේ ඕනෑ දේ දෙන්න නොවේ

00:59:46,916 --> 00:59:52,589
ඇල්ගොරිතම් කරන්නේ 
රුචිකත්වය අවබෝධ කර ගැනීම

00:59:52,672 --> 00:59:56,217
ඊට පස්සේ ඔබව ග්‍රහණය 
කරගන්න පුළුවන් වෙනවා

00:59:56,301 --> 00:59:59,262
ඔබ එක් වීඩියෝවක් නැරඹුවොත්

00:59:59,846 --> 01:00:02,223
සමාන වීඩියෝ පෝලිමේ 
ඔබට නිර්දේශ කෙරෙනවා

01:00:02,682 --> 01:00:07,812
මෙහෙම වෙනවට කවුරුවත් කැමැති නෑ
නිර්දේශ කිරීම් සිදුවන්නේ මේ විදියටයි

01:00:07,895 --> 01:00:14,235
පැසිපන්දු ක්‍රීඩක කයිරී අර්වින්
පෘථිවිය පැතලියි විශ්වාස කළා කීවා

01:00:14,319 --> 01:00:16,154
පසුව ඔහු ඒ ගැන සමාව ගත්තා

01:00:16,487 --> 01:00:21,534
යූ ටියුබ් ක්ලික් කළාම ඔබට
කැමැති කැමති දේ බලන්න පුළුවන්

01:00:21,618 --> 01:00:29,291
ඔහු ප්‍රසිද්ධියේ සමාව ඉල්ලුවා
මිනිසුන් නොමඟ යැවීම ගැන

01:00:31,044 --> 01:00:37,634
පෘථිවිය පැතලියි යන අදහස නිතරම
ඇල්ගොරිතම හරහා පැතිර යන කරුණක්

01:00:37,717 --> 01:00:43,890
රැවටෙන්නේ මෝඩයන් 
කීප දෙනකු නොවේ

01:00:43,973 --> 01:00:46,893
ඇල්ගොරිතම දිනෙන් දින බුද්ධිමත් වෙනවා

01:00:46,976 --> 01:00:53,983
බොහොම අපූරුවට පෘථිවිය පැතලියි කියා
මිනිසුන්ට ඒත්තු ගන්වන්න එයට පුළුවන්

01:00:54,317 --> 01:00:57,820
 නොවැම්බර් 7 වන දින 
'#පීසාගේට්' උපත ලැබුවා

01:00:57,904 --> 01:01:00,000
පීසාගේට් ...

01:01:03,159 --> 01:01:06,913
ආරම්භය කොහොමදැයි 
මම හරියටම දන්නේ නෑ

01:01:06,996 --> 01:01:12,377
පීසා ඇණවුම් හරහා
කල්ලියක් නිර්මාණය වුණා

01:01:12,460 --> 01:01:15,046
ෆේස්බුක් තුළ කල්ලිය වර්ධනය වෙද්දී ...

01:01:15,129 --> 01:01:21,761
ෆේස්බුක් සෙසු පරිශීලකයන්ටත්
පීසාගේට් නිර්දේශ කරන්න වුණා

01:01:21,844 --> 01:01:27,392
සමාජ විරෝධී ආකල්ප ඇති 
පරිශීලකයෝ සිටිනවා නම් ...

01:01:27,475 --> 01:01:30,645
ඔවුන් රජයේ කුමන්ත්‍රණ ගැන 
විශ්වාස කරනවා නම් ...

01:01:30,728 --> 01:01:36,859
ෆේස්බුක් ඔවුන්ට පීසාගේට් කල්ලිය
නිර්දේශ කරන්න වුණා

01:01:36,943 --> 01:01:41,072
අන්තිමේදී, තුවක්කුවක්
ගත්තු එක් මනුස්සයෙක්

01:01:41,155 --> 01:01:46,911
පීසා අවන්හලකට කඩා වදින්න හැදුවා
ඒ තුළ ළමයි සිරකරගෙන ඉන්නවා කියමින්

01:01:56,045 --> 01:02:03,678
සමාජ මාධ්‍ය හරහා නිර්මාණය වුණු
බොරුවක් සැබෑවක් ලෙස ප්‍රසිද්ධ වුණා

01:02:03,761 --> 01:02:07,974
සමාජ මාධ්‍ය ඔවුන්ට රිසි පරිදි 
පරිශීලකයන්ට සේවය ලබා දුන්නා

01:02:08,057 --> 01:02:11,643
පීසාගේට් ගැන නොදන්නා අයටත්

01:02:12,437 --> 01:02:14,439
එම්අයිටී අධ්‍යයනයකින් පැහැදිලියි

01:02:14,522 --> 01:02:19,819
ව්‍යාජ පුවත් ට්විටර් හරහා පැතිරෙනවා 
හය ගුණයක වේගයකින්

01:02:19,902 --> 01:02:24,741
ඉතිං, ලෝකය කොහොම වේවිද?
ඇත්තට වඩා බොරුව ප්‍රචලිත වෙද්දී

01:02:25,283 --> 01:02:31,706
මනුෂ්‍ය හැසිරීමේ 
අසමතුලිතතාවක් 

01:02:31,789 --> 01:02:34,709
සමහර හැසිරීම් සංකීර්ණයි, පහසුයි

01:02:34,792 --> 01:02:38,796
මුදුනට නගින්න නිදහස තිබෙනවා
එහෙම කරන්නේ අතළොස්සයි

01:02:38,880 --> 1:02:45,970
සමස්තයක් විදියට සමාජය වැඩියෙන් 
යොමු වන්නේ එක පැත්තකට

01:02:46,053 --> 01:02:52,018
බොරු තොරතුරුවලට පක්ෂග්‍රාහී 
පද්ධතියක් අප නිර්මාණය කරගෙන

01:02:52,643 --> 01:02:54,437
ඒ අපට ඕනෑ නිසා නොවේ ...

01:02:54,520 --> 01:02:58,816
බොරු තොරතුරු සමාජගත කිරීමෙන්
ලාබයක් ලැබෙන නිසා

01:02:59,400 --> 01:03:01,319
සත්‍යය නීරසයි

01:03:01,986 --> 01:03:04,489
බොරුව ප්‍රචලිත කරලා 
ලාබ ලැබීමේ ආකෘතියක්

01:03:04,906 --> 01:03:08,159
නියාමනය නොකළ පණිවිඩවලට 
ඉඩ තරමට, වැඩියෙන් මුදල් ලැබෙනවා

01:03:08,701 --> 01:03:11,287
හොඳම මිලට, ඕනෑම කෙනකුට

01:03:11,662 --> 01:03:16,751
දේශගුණික විපර්යාස ප්‍රෝඩාවක්
කියමින් ඔවුන් ඔබ නොමඟ යවනවා

01:03:16,834 --> 01:03:22,423
යථාර්ථය අමතක කරවන්න
සමාජයේ බෙදිම් ඇති කර තිබෙනවා

01:03:22,507 --> 01:03:26,300
ෆේස්බුක් තුළ මෙවැනි ප්‍රවෘත්ති 
පෝස්ට් ත්‍රිලියන ගණනක්

01:03:26,552 --> 01:03:29,180
සත්‍යය, බොරුව මොකක්දැයි 
ඔවුන් දන්නේ නෑ

01:03:29,972 --> 01:03:33,726
ඒ නිසයි මේ ගැන සංවාදයක් ඕනෑ

01:03:33,810 --> 01:03:37,021
වැඩියෙන් පැතිරෙන්නේ
COVID-19 පමණක් නොවේ

01:03:37,104 --> 01:03:40,191
වයිරසය ගැන බොරු තොරතුරු
සමාජ මාධ්‍ය ඔස්සේ පැතිරෙනවා

01:03:40,274 --> 01:03:47,490
වතුර බීමෙන් කොරෝනා සිරුරෙන් 
ඉවත් වෙනවා යැයි මතයක් පැතිරෙනවා

01:03:47,573 --> 01:03:50,451
වයිරසය නිර්මාණය කළේ රජය ...

01:03:50,535 --> 01:03:53,621
රටරටවල් ඊට ප්‍රතිචාර දක්වන 
අයුරු ඔවුන් සොයා බලනවා

01:03:53,955 --> 01:03:55,581
කොරෝනා වයිරසය ප්‍රෝඩාවක්

01:03:56,165 --> 01:03:57,959
සාර්ස්, කොරෝනා වයිරසය ...

01:03:58,376 --> 01:04:01,045
බලන්න නිෂ්පාදන දිනය 2018

01:04:01,128 --> 01:04:03,798
ඇමෙරිකාව තමයි මේක පටන් ගත්තේ

01:04:04,215 --> 01:04:09,095
රෝගී වුණු කිසිවෙක් ඇත්තේ නෑ
එහෙම කෙනෙකු ගැන දන්නෙත් නෑ

01:04:09,512 --> 01:04:15,643
කොරෝනා ගැන බොරු කියමින් 
රජයට ඕනෑ අප නිවෙස්වල හිරකරන්න

01:04:15,726 --> 01:04:20,940
කොරෝනාට වඩා 5G 
විකිරණවලින් මිනිස්සු මැරෙනවා

01:04:22,608 --> 01:04:24,944
කටකතා පැතිරෙනවා ...

01:04:25,403 --> 01:04:28,823
කලහකාරීන් දුරකතන 
කුලුනු විනාශ කරනවා

01:04:28,906 --> 01:04:32,201
රුසියාව, චීනය කටකතා කුමන්ත්‍රණ 
අදහස්වලට උඩගෙඩි දෙනවා පේනවා

01:04:32,285 --> 01:04:35,246
යුක්රේනය නොසන්සුන්
විරෝධතා වර්ධනය වෙලා

01:04:35,329 --> 01:04:38,916
සත්‍යය හරිහැටි අවබෝධයක් නෑ

01:04:39,876 --> 01:04:45,798
වැරදි තොරතුරු නිසා 
කොරෝනා පැතිරෙනවා

01:04:45,882 --> 01:04:50,094
ඔබ කියන විදියට 'සිල්වර්
සොලූෂන්' තමයි විසඳුම ...

01:04:50,177 --> 01:04:54,140
කොරෝනා වයිරසයට අත්හදා බලලා නෑ

01:04:54,223 --> 01:05:00,521
කොරෝනා පැතිරෙද්දී දකින්න ලැබුණා
ව්‍යාජ තොරතුරු අපට බලපාන ආකාරය

01:05:00,938 --> 01:05:05,026
සමාජ මාධ්‍ය හරහා වැඩියෙන්
ඕපාදූප ප්‍රචලිත වෙනවා

01:05:05,109 --> 01:05:08,946
සත්‍යය මොකක්දැයි වටහා ගන්න 
බැරි තත්ත්වයකට අපව පත්වෙලා

01:05:26,130 --> 01:05:28,257
ඔයා තවමත් කණ්ඩායමේ ඉන්නවාද?

01:05:30,384 --> 01:05:34,430
පුහුණු වෙන්න කලින් මම යනවා 
මොනවා හරි කන්න, ඔයා එනවද?

01:05:36,974 --> 01:05:38,601
අමතක කරන්න ඒක

01:05:45,066 --> 01:05:47,526
10 දෙනකුගෙන් 9 ක් අප්‍රසාදයෙන්

01:05:47,610 --> 01:05:50,613
EC කියන්නෙත් අනෙකුත්
දේශපාලන ව්‍යාපාර වගේ

01:05:50,696 --> 01:05:54,492
අපි ඒ හඬ වෙනුවෙන් නැඟී සිටිනවා

01:05:54,575 --> 01:05:58,036
'මගේ පිරිවර ඔබයි; මට ඔබ විශ්වාසයි'

01:05:59,246 --> 01:06:02,583
ඔහුට දකින්න සලස්වන දේට
ඔහු කැමතියි, ඇලීගැලී ඉන්නවා

01:06:02,667 --> 01:06:08,547
ලංසුකරුවන් 840 ක්, ශත 4.35 කට 
ආයුධ නිෂ්පාදකයකුට විකුණුවා

01:06:08,631 --> 01:06:10,800
ප්‍රවර්ධනය වැඩි කරමු

01:06:10,883 -->  01:06:15,179
එයාට ආසන්නයේ රැලියක්
- පුළුවන් එයා ඒකට යවන්න 

01:06:40,788 --> 01:06:47,920
කෙනකු පොලඹවා ගන්න ෆේස්බුක් 
තරම් අපූරු මෙවලමක් තවත් නෑ

01:06:48,004 --> 01:06:52,508
එවැනි මෙවලමක්, ඒකාධිපතියකුගේ 
අතේ නම්, ඒක බරපතලයි 

01:06:53,718 --> 01:06:57,638
රටේ ජනතාව පාලනය 
කරන්න ඔබට ඕනෑ නම් ...

01:06:57,722 --> 01:07:01,308
එසේ කරන්න පහසුම මෙන්ම
සාර්ථකම මෙවලම තමයි ෆේස්බුක් 

01:07:04,937 --> 01:07:10,985
සමාජ මාධ්‍ය ආයුධයක් කර ගත් ආණ්ඩු 
සහ පුද්ගල චරිත අපට දකින්න ලැබෙනවා

01:07:11,235 --> 01:07:17,658
සමාජ හානිය බිහිසුණුයි
හොඳම උදාහරණය මියන්මාරය

01:07:19,243 --> 01:07:22,913
මියන්මාර වැසියන් අන්තර් ජාලය ලෙස
හඳුනාගෙන තියෙන්නේ ෆේස්බුක් 

01:07:22,997 --> 01:07:25,916
ඔවුන් ජංගම දුරකතන මිලදී ගනිද්දී

01:07:26,000 --> 01:07:31,505
ෆෝන් වෙළඳසැලේ හිමිකරු ෆේස්බුක් 
ෆෝන් එකට දාලා, ගිණුමකුත් හදලා දෙනවා

01:07:31,589 --> 01:07:37,595
ෆෝන් එක දාපු ගමන්ම
මුලින්ම විවෘත කරන්නේ ෆේස්බුක් 

01:07:38,179 --> 01:07:43,809
ෆෙස්බුක් දැඩි උත්සාහයක් ගන්නවා 
වෛරී ප්‍රකාශ නවත්වන්න, මියන්මාරයේ

01:07:46,103 --> 01:07:51,776
ෆේස්බුක් හමුදාවට, පාලකයන්ටත්
මහජන මතය හසුරුවන්න වේදිකාවක් ...

01:07:51,859 --> 01:07:55,529
රෝහින්ග්‍යා මුස්ලිම්වරුන්ට 
එරෙහි උසි ගැන්වීම් කරන්න

01:07:55,613 --> 01:08:03,704
සමූල ඝාතන, ගම්මාන ගිනි තැබීම්
සමූහ දූෂණ සහ බරපතල අපරාධ වුණා

01:08:03,788 --> 01:08:08,209
අවසානයේ, ලක්ෂ 7 ක් රොහින්ග්‍යා
මුස්ලිම් වැසියන්ට පලා යන්න වුණා

01:08:11,170 --> 01:08:16,550
මේ ආකාරයේ මාධ්‍ය හරහා
පෙලඹවීම් මීට කලින් තිබිලා නෑ

01:08:16,634 --> 01:08:23,724
වේදිකාවක් නිර්මාණය වෙලා තිබෙනවා
සාර්ථකව ඕනෑ කෙනෙක් උසි ගන්වන්න

01:08:23,808 --> 01:08:25,434
විශාල මුදල් වැයවීමක් නැතිව

01:08:25,518 --> 01:08:30,564
මැතිවරණවලදී ජනමතය හදන 
වෙනම ෆේස්බුක් කණ්ඩායම් ඉන්නවා

01:08:30,648 --> 01:08:34,443
100 ක් හොයා ගන්න පුළුවන්
පෘථිවිය පැතැලියි විශ්වාස කරන

01:08:34,859 --> 01:08:37,779
සඳට පය තැබීම බොරුවක් යැයි ඔවුන් කියාවි

01:08:37,863 --> 01:08:41,450
ෆේස්බුක් හරහා ඒක අනුමත කරන
1,000 ක් සොයා ගන්න පුළුවන්

01:08:42,118 --> 01:08:46,080
ෆේස්බුක් දහස් ගණන් එක සමාන 
පරිශීලකයින් සම්බන්ධ කර දෙනවා

01:08:46,162 --> 01:08:49,250
තව තවත් කුමන්ත්‍රණ 
න්‍යායන් ඉදිරිපත් කරමින්

01:08:50,376 --> 01:08:53,087
ශත ​​3.4 කට විකුණන්න පුළුවන් වුණා

01:08:53,379 --> 01:08:56,381
ප්‍රවර්ධනය සඳහා අලුත් EC වීඩියෝවක්
වෙළෙඳ දැන්වීමකුත් ඒ අතරේ

01:08:58,509 --> 01:09:02,138
ඇල්ගොරිතම සහ පෙලඹවීම් කරන 
දේශපාලනඥයන් විශේෂඥයන් වෙලා

01:09:02,220 --> 01:09:08,352
අප හසුකර ගන්නා විදිය ඔවුන් දන්නවා
බොරුව යථාර්ථයක් කරන්න ඔවුන් සමත්

01:09:08,435 --> 01:09:14,149
අප බොරු විශ්වාස කරන්න පෙලඹෙනවා
අපට අප ගැන ඇති විශ්වාසය පළුඳු වෙනවා

01:09:48,517 --> 01:09:51,895
කිසිවෙක් කිසිවක් විශ්වාස 
නොකරන තත්ත්වයට වැටිලා

01:09:52,897 --> 01:09:58,444
රජය බොරු කියනවා යැයි සිතනවා
කුමන්ත්‍රණ සිදුවෙනවා යැයි සිතනවා

01:09:58,527 --> 01:10:02,698
විශ්වාසය බිඳ වැටිලා 
විරුද්ධවාදීන්ට වෛර කරනවා

01:10:02,781 --> 01:10:08,412
යුරෝපයේ දේශපාලන අර්බුදය දරුණුයි
ඉතාලියත් ස්පාඤ්ඤයත් කැලැඹිලා

01:10:08,495 --> 01:10:11,999
පාලක සන්ධානයට බහුතරය අහිමි වෙලා

01:10:12,082 --> 01:10:16,086
අන්ත දක්ෂිණාංශික සහ 
වාමාංශික පක්ෂ ඉදිරියට ඇවිල්ලා

01:10:28,390 --> 01:10:34,355
සමාජ මාධ්‍ය ගිණුම් හරහා වෛරය
පැතිරෙනවා, ජනතාව නොසන්සුන්

01:10:42,863 --> 01:10:45,032
රටකට කුමක් වේවිද?

01:10:45,115 --> 01:10:48,410
ෆේස්බුක් සහ සමාජ මාධ්‍යවලින් 
පමණක් පෝෂණය වෙනවා නම් ...

01:10:48,953 --> 01:10:51,830
ප්‍රජාතන්ත්‍රවාදය ඉක්මනින් බිඳ වැටෙනවා

01:10:51,914 --> 01:10:57,800
චිකාගෝ නුවර දරුණු ගැටුම් ඇතිවුණා
විරෝධතාකරුවන්, ආධාරකරුවන් අතරේ

01:10:58,003 --> 01:11:01,632
ප්‍රජාතන්ත්‍රවාදය කෙරෙහි ඇති
විශ්වාසය බිඳ වැටීමේ අර්බුදයක්

01:11:01,715 --> 01:11:04,343
ප්‍රජාතන්ත්‍රවාදයට එරෙහි ගෝලීය ප්‍රහාරයක්

01:11:04,426 --> 01:11:09,723
ප්‍රජාතන්ත්‍රවාදී මැතිවරණ පැවැත්වෙන 
රටවල තමයි නොසන්සුන්තා හටගන්නේ

01:11:10,641 --> 01:11:18,524
මෙතරම් මුදලකට පුළුවන්, කෙන්යාව 
හෝ කැමරූන් රාජ්‍යය අස්ථාවර කරන්න

01:11:18,607 --> 01:11:21,651
 ඇන්ගෝලාව? එහෙනම් 
තව වැඩිපුර මුදල් ගෙවන්න වේවි‍

01:11:21,734 --> 01:11:26,823
බ්‍රසීල මැතිවරණය සුවිශේෂී එකක් 
- බල ගැන්වූයේ සමාජ මාධ්‍ය

01:11:31,036 --> 01:11:33,956
තාක්ෂණික කර්මාන්තයේ
නිර්මාණය කර ඇති මෙවලම් ...

01:11:34,039 --> 01:11:37,418
සමාජයේ ව්‍යුහය අස්ථාවර 
කිරීමට යොදා ගන්නවා

01:11:37,501 --> 01:11:40,254
හැම රටකම, හැම තැනකම

01:11:40,337 --> 01:11:44,508
ජර්මනිය, ස්පාඤ්ඤය, ප්‍රංශය,
බ්‍රසීලය, ඕස්ට්‍රේලියාව ...

01:11:44,591 --> 01:11:47,261
ලොව වඩාත් සංවර්ධිත 
ජාතීන් සිටින රටවල්

01:11:47,344 --> 01:11:49,221
අර්බුදවලට ලක්වෙලා

01:11:49,305 --> 01:11:50,931
හැමෝටම පොදු දේ මොකක්ද?

01:11:51,974 --> 01:11:56,312
2016 මැතිවරණ ප්‍රතිඵලවලට
ෆේස්බුක් බලපෑමක් කළාද?

01:11:56,770 --> 01:11:58,814
ඒක එහෙමයි කියන්න අමාරුයි

01:11:58,897 --> 01:12:00,691
ඇත්තම කියනවා නම් ...

01:12:01,275 --> 01:12:04,653
විවිධ බලවේග කීපයක් සම්බන්ධ වුණා

01:12:04,737 --> 01:12:07,865
ෆේස්බුක්, ට්විටර් සහ ගූගල් ප්‍රධානීන්
විශේෂ අධිකරණයක් හමුවට ඇවිල්ලා

01:12:07,948 --> 01:12:09,450
දෙවැනි දිනයේ සාක්ෂි දීමට

01:12:09,533 --> 01:12:12,578
2016 ජනපතිවරණයට, රුසියාව 
මැදිහත් වුණැයි චෝදනා හේතුවෙන්

01:12:12,661 --> 01:12:17,291
තෙවැනි පාර්ශ්වයක් මැදිහත් වීම
හැක් කිරීමක් නොවේ

01:12:18,500 --> 01:12:21,462
රුසියානුවන් ෆේස්බුක් හැක් කළේ නෑ

01:12:21,545 --> 01:12:24,965
ෆේස්බුක් මෙවලම් භාවිතයට ගත්තා ...

01:12:25,049 --> 01:12:30,346
නීත්‍යානුකූල දැන්වීම්කරුවන් සහ 
නීත්‍යානුකූල පරිශීලකයින් යොදාගෙන

01:12:32,014 --> 01:12:36,602
දුරස්ථ පාලනයෙන් කරන යුද්ධ වගේ
එක් රටක් තව රටකට බලපෑම් කරනවා

01:12:36,685 --> 01:12:39,229
දේශසීමා හරහා ආක්‍රමණය නොකර

01:12:43,400 --> 01:12:46,028
එක් විශේෂ කෙනකුට ඡන්දය
දෙන්න බලකරනවා නොවෙයි ...

01:12:46,362 --> 01:12:50,574
සමාජයේ බෙදීමක් ඇති කිරීමයි සිදුවන්නේ

01:12:53,118 --> 01:12:58,123
එකිනෙකාට කන් නොදෙන පාර්ශ්ව දෙකක්

01:12:58,207 --> 01:13:02,212
එකිනෙකා විශ්වාස 
නොකරන පාර්ශ්ව දෙකක්

01:13:56,723 --> 01:14:00,018
මේ ක්‍රමය වැඩිම ලංසුකරුට 
විකුණන්න ඕනෑද?

01:14:01,437 --> 01:14:05,399
ප්‍රජාතන්ත්‍රවාදය 
මුළුමනින්ම විකුණමින් ...

01:14:05,482 --> 01:14:09,069
සමාජීය අස්ථාවර තත්වයක්
නිර්මාණය කරනවා

01:14:09,236 --> 01:14:11,237
ඒකද අපට ඕනෑ?

01:14:14,700 --> 01:14:18,871
අපි කවුරුවත් තවදුරටත්
එකිනෙකා සමඟ කතාබහ නෑ

01:14:19,872 --> 01:14:25,461
ප්‍රතිවාදී පිලට ඡන්දය දුන් නිසා
එකිනෙකා සමඟ තරහා වෙනවා

01:14:25,878 --> 01:14:30,966
අපි හුදෙකලා වුණු ජාතියක්
කන්දෙන්නේ සමාජ මාධ්‍යවලට

01:14:32,259 --> 01:14:36,597
ගෝත්‍රවාදී ආකල්ප 
අප විනාශ කරනවා

01:14:37,347 --> 01:14:42,811
අපේ රට දෙකඩ කරනවා
අප වගකීමෙන් ක්‍රියා කළ යුතුයි

01:14:43,187 --> 01:14:49,401
ඕනෑ කෙනකුට අයිතිය තියෙනවා
කැමැති විදියට ඉන්න, සම්මුති ඕනෑ නෑ

01:14:49,485 --> 01:14:53,530
කිසිදු මැදිහත් වීමක් අවශ්‍ය නෑ

01:14:53,989 --> 01:14:58,410
යථාර්ථය පිළිබඳ හොඳ අවබෝධයක් 
තිබිය යුතුයි, නැත්නම් අපි රටක් නොවේ

01:14:58,952 --> 01:15:02,998
දිගු කාලීන විසඳුම තවත් 
කෘත්‍රිම බුද්ධි මෙවලම් නිර්මාණයයි

01:15:03,081 --> 01:15:08,128
මනුෂ්‍ය ක්‍රියාකාරකම්
පහසුවෙන් වටහා ගන්න

01:15:08,212 --> 01:15:13,884
තාක්‍ෂණ විද්‍යාඥයන් ලවා
විසඳුම් සෙවීම නොකළ යුතුයි

01:15:15,135 --> 01:15:17,270
ඒක බොරුවක්

01:15:17,679 --> 01:15:20,724
කෘත්‍රිම බුද්ධිය ගැන කතා කරන්නේ
සත්‍යය කුමක්දැයි අවබෝධ නොකර

01:15:21,683 --> 01:15:23,685
කෘත්‍රිම බුද්ධිය මේ ගැටලු විසඳන්නේ නෑ

01:15:24,269 --> 01:15:28,189
ව්‍යාජ ප්‍රවෘත්තිවල ගැටලුව 
විසඳන්න කෘත්‍රිම බුද්ධිවලට බෑ

01:15:28,649 --> 01:15:36,240
ගූගල්ට කියන්න බෑ මේක ඇත්තක්ද?
බොරුවක්ද? කුමන්ත්‍රණයක්ද?

01:15:36,782 --> 01:15:40,827
සත්‍යය කියන දේ පැහැදිලිව
නිර්වචනය කරන්න ඔවුන්ට බෑ

01:15:41,870 --> 01:15:47,584
සත්‍යය යැයි කියන දේට
අප එකඟ වෙන්නේ නැති නම් ...

01:15:48,293 --> 01:15:49,294
එය අපේ අවසානය

01:15:49,753 --> 01:15:52,089
අනෙක් ගැටලුවලට යටින් 
තියෙන්නේ මේ ගැටලුව

01:15:52,172 --> 01:15:57,803
සත්‍යය කුමක්දැයි වටහා ගන්න බැරිනම්
අනෙක් ගැටලුවලට විසඳුම් සොයන්න බෑ

01:16:39,886 --> 01:16:45,142
සුපිරි මොළයක් හදනවා කියලයි
සිලිකන් වැලි දක්ෂයන් හිතන්නේ

01:16:45,309 --> 01:16:49,563
පරිශීලකයින් සම්බන්ධ කර ගනිමින්

01:16:50,230 --> 01:16:53,150
පරිශීලකයන් අමුතු 
භූමිකාවට ඇද දමලා

01:16:53,233 --> 01:16:58,905
පරිශීලකයන් පුංචි පරිගණක 
උපාංග හා සමානයි

01:16:58,989 --> 01:17:02,911
යෝධ මොළයකට 
යටත් වෙලා සේවය කරන

01:17:02,995 --> 01:17:06,455
ඒ වෙනුවෙන් මුදල් ගෙවීමක් නෑ
ඔබේ දායකත්වය ඔබ ලබා දෙනවා

01:17:06,538 --> 01:17:09,416
ඔබට නොදැනී ඔබව පාලනයට ලක් වෙලා

01:17:09,499 --> 01:17:12,336
පරිගණක උපාංග භාවිතයට 
ගැනෙන්නේ ඒ විදියට

01:17:20,093 --> 01:17:21,845
අපොයි

01:17:21,928 --> 01:17:28,060
තාක්ෂණය තර්ජනයක් කීම
බරපතල ආකාරයේ චෝදනාවක්

01:17:29,603 --> 01:17:32,196
සැණින් ග්‍රහණය වෙන්නේ නෑ

01:17:32,396 --> 01:17:40,000
මම ෆෝන් එක භාවිත ගන්නවා
තර්ජනයක් පෙනෙන්නේ නෑනේ

01:17:40,280 --> 01:17:41,615
සුපිරි පරිගණකයක් තියෙනවා

01:17:41,698 --> 01:17:43,950
තිරයේ අනෙක් පැත්තේ
මගේ මොළය ඉලක්ක කරගෙන

01:17:44,409 --> 01:17:48,623
එකපිටඑක වීඩියෝ මට පෙන්වනවා
ඒක කොහොමද තර්ජනයක් වෙන්නේ?

01:17:54,252 --> 01:17:59,341
තර්ජනය තාක්ෂණය නිසා නොවේ

01:18:03,679 --> 01:18:09,476
තාක්ෂණයට හැකිවී තිබෙනවා 
නරකම දේවල් ඉස්මතු කරන්න

01:18:09,559 --> 01:18:13,522
ඒක සමාජයේ යහපැවැත්මට 
තර්ජනයක්

01:18:18,819 --> 01:18:23,115
තාක්ෂණයට පුළුවන් නම්
අවුල් ජාලයක් නිර්මාණය කරන්න

01:18:23,198 --> 01:18:26,326
වයිරය, කෝපය, නොගැළපීම
අවිශ්වාසය, හුදෙකලාව ...

01:18:27,452 --> 01:18:33,333
තනිකම, දුරස් වීම, මැතිවරණවලට
බලපෑම් දිගින් දිගටම සිදුවෙනවා නම් ...

01:18:33,917 --> 01:18:36,962
අවධානය යොමු කළ යුතු 
හැබෑ කාරණා යටපත් වෙලා

01:18:37,963 --> 01:18:39,715
ඒක තමයි සමාජය

01:18:40,340 --> 01:18:46,388
සමාජයට තනිවම සුවපත් වෙන්න බෑ

01:18:46,471 --> 01:18:49,515
දිගටම අවුලෙන් අවුලට යනවා

01:18:51,977 --> 01:18:54,938
තාක්ෂණය භාවිතයට නොගන්නා 
අයටත් බලපෑම් එල්ල වෙනවා

01:18:55,397 --> 01:19:00,068
ඩිජිටල් ෆ්‍රැන්කන්ස්ටයින් කෙනකු වගේ
ස්වරූපය ලෝකය භීතියට පත් කරනවා

01:19:00,152 --> 01:19:01,862
දරුවන්ගේ මානසික 
සෞඛ්‍යය විනාශ කරනවා

01:19:01,945 --> 01:19:04,489
දේශපාලන වේදිකාව අවුල් කරනවා

01:19:04,573 --> 01:19:07,492
කිසිවෙක් නෑ ඒ ගැන වගකීම ගන්න

01:19:07,576 --> 01:19:10,579
ඒ නිසයි ඔබ යමක් කළ යුත්තේ
- වගකියන්න ඕනෑ කවුරුන්ද?

01:19:10,662 --> 01:19:15,584
තාක්ෂණික වේදිකාව වගකියන්න ඕනෑ
මැතිවරණ වෙළඳ දැන්වීම් භාර ගනිද්දී 

01:19:15,667 --> 01:19:22,841
මැතිවරණ ආරක්ෂා කිරීමයි වගකීම
දරුවන්ට හොඳ දේ දීමයි ඔවුන්ගේ වගකීම

01:19:23,592 --> 01:19:27,929
අවධානය දිනා ගන්න කරන
තරඟයේ නිමාවක් නෑ

01:19:28,388 --> 01:19:31,850
තාක්‍ෂණය තව තවත් 
අපේ ජීවිත හා බද්ධ වේවි

01:19:31,933 --> 01:19:37,105
අප ග්‍රහණයට ගන්න කෘත්‍රිම 
බුද්ධි තව තවත් නිර්මාණය වේවි

01:19:38,940 --> 01:19:44,821
මට අවුරුදු 62 යි, මේ කතාව අහලා
මම තවත් වයසට ගියා වගේ හිතෙනවා

01:19:44,905 --> 01:19:48,033
මම මෙහෙම දෙයක් කියන්නම් ...

01:19:48,700 --> 01:19:54,331
මේ දේවල් තවත් අවුල්සහගත වෙද්දී
ඒවා දකින්න මම ජීවතුන් අතර නැතිවේවි

01:19:54,790 --> 01:19:59,586
කියපු මේ දේවල් අහලා මට මරණ බිය දැනුණා

01:20:00,754 --> 01:20:06,885
ඔබටත් එහෙම බිය දැනෙනවාද?
නැතිනම් මම බොරුවට කලබල වුණාද?

01:20:09,805 --> 01:20:12,598
වැඩිපුරම කනස්සල්ලට පත්වී 
සිටින්නේ මොකක් ගැනද?

01:20:13,850 --> 01:20:18,480
මම හිතන්නේ ඉක්මනින්ම ...

01:20:19,523 --> 01:20:21,524
සිවිල් යුද්ධ දකින්න ලැබේවි

01:20:24,444 --> 01:20:29,908
පවතින විදියට තව අවුරුදු 20 ක් 
විතර ගියොත් ...

01:20:31,117 --> 01:20:34,579
අපි නොදැනුවත්වම අපේ 
ශිෂ්ටාචාරය විනාශ කරගන්නවා

01:20:34,663 --> 01:20:37,958
දේශගුණික විපර්යාස අභියෝගවලට
මුහුණ දෙන්න බැරිවෙනවා

01:20:38,041 --> 01:20:46,132
ලෝකයේ ප්‍රජාතන්ත්‍රවාදය පිරිහී යනවා
අත්තනෝමතික අක්‍රියතාවක් හටගනීවි

01:20:46,216 --> 01:20:48,426
ගෝලීය ආර්ථිකය විනාශ කරාවි

01:20:48,760 --> 01:20:54,808
එසේ වුණත් අපි නොනැසී පවතීවි
පවතින තත්ත්වයේම දිගුවක් වේවි

01:21:02,524 --> 01:21:08,488
මේ අවසන් පරම්පරාවද?
ව්‍යසනයක් වේවි වටහාගත්

01:21:11,074 --> 01:21:15,538
මේට්‍රික්ස් තුළ ඉන්න බව නොදැන 
කොහොමද එයින් අවදි වෙන්නේ

01:21:27,382 --> 01:21:33,680
අපි කියන දේවල්වලින් පේන්නේ
එක් විනාශකාරී අඳුරු පැත්තක්

01:21:33,763 --> 01:21:38,059
තාක්ෂණය ලෝකය විනාශ කරනවා
අපේ දරුවන් විනාශ කරනවා ...

01:21:38,143 --> 01:21:45,567
තාක්ෂණය යහපතටත් 
අයහපතටත් දෙකටම තියෙනවා

01:21:45,942 --> 01:21:50,447
ෆෝන් එකෙන්, තත්පර 30 කින්
මෝටර් රථයක් ගෙන්වා ගන්න පුළුවන්

01:21:50,530 --> 01:21:55,660
යා යුතු තැනට නිවැරදිව යන්න පුළුවන්
ඒක මැජික් වගේ, හරිම පුදුම සහගතයි

01:21:56,161 --> 01:22:01,499
'ලයික්' ක්ලික් කරද්දී, ලෝකයට 
ආදරය බෙදනවා දැනෙන්න පුළුවන්

01:22:01,583 --> 01:22:06,421
ඒත් අද 'ලයික්' මදිවෙලා තරුණ 
ළමයි මානසික පීඩනයට පත් වෙනවා

01:22:06,504 --> 01:22:09,883
දේශපාලනික බෙදීම් හට ගන්නවා
පෙර දැනුවත්භාවයක් නැතිව

01:22:09,966 --> 01:22:15,764
මේ කිසිවක් නපුරු චේතනාවෙන් 
කරනවා නොවේ, ව්‍යාපාරික ආකෘතියක්

01:22:15,847 --> 01:22:24,522
සේවා සියල්ල නවත්වා, විනාශ කළ හැකියි
නඩු පවරා, සමාගම් වසා දමන්න පුළුවන්

01:22:24,606 --> 01:22:27,108
ඒත් එළියට ආ භූතයා 
ආපසු ඇතුළට දාන්න බෑ

01:22:27,192 --> 01:22:34,032
මොනවා කළත්, අවසානයේ ආදායමක්
ලාබයක් තිබෙන්න ඕනෑ

01:22:34,658 --> 01:22:37,535
දැන් වෙනස් කරන්න බැරි විදියට 
හැමදේම වර්ධනය වෙලා

01:22:38,495 --> 01:22:43,458
මම දකින්නේ ව්‍යාපාරික 
ආකෘතියකින් කොටුවුණු පිරිසක් ...

01:22:43,541 --> 01:22:48,922
ආර්ථික දිරිගැන්වීමක් අපේක්ෂාවෙන්
කොටස් හිමියන්ගේ පීඩනයට ලක්වුණු

01:22:49,005 --> 01:22:53,176
අපි පිළිගන්න ඕනෑ සමාගම්වලට
සිදුවෙනවා මේ විදියට මුදල් උපයන්න

01:22:53,259 --> 01:22:56,888
නියාමනයක් නැතිව,
නීතියක් නැතිව, තරඟයක් නැතිව ...

01:22:56,972 --> 01:23:00,850
සමාගම් තමන්ට රිසි දේ කරනවා

01:23:00,934 --> 01:23:05,981
ස්වයං නියාමනයක් කරනවා 
ඔවුන් කියනවා, ඒක විහිළුවක්

01:23:06,064 --> 01:23:08,650
මූල්‍ය දිරිගැන්වීම් අනුවයි හැමදේම

01:23:08,733 --> 01:23:12,529
මේ ගැටලුවට මොන විදියේ 
විසඳුමක් ඉදිරිපත් කළත් ...

01:23:12,612 --> 01:23:15,573
මුදල් ලැබෙන විදියට හා 
ලාබය අනුවයි එසේ වෙන්නේ

01:23:16,074 --> 01:23:21,329
මෙම සමාගම්වලට වෙනස් වෙන්න 
ඕනෑ නෑ, ඒකයි නියාමනයක් අවශ්‍ය

01:23:21,413 --> 01:23:24,290
දුරකථන සමාගම සතුව ඔබ ගැන
සංවේදී දත්ත ටොන් ගණනක් තියෙනවා

01:23:24,374 --> 01:23:27,544
ඒ දත්ත අවභාවිතය 
වළක්වන්න නීති තිබෙනවා

01:23:27,627 --> 01:23:31,506
ඒත් ඩිජිටල් පෞද්ගලිකත්වය 
සම්බන්ධයෙන් නීති හදලා නෑ

01:23:31,589 --> 01:23:34,426
අපට දත්ත රැස් කිරීම සහ 
සැකසීමට බදු අය කරන්න පුළුවන්

01:23:34,509 --> 01:23:37,554
ඔබ ඔබේ වතුර බිල ගෙවනවා වගේ ...

01:23:37,637 --> 01:23:39,723
වතුර මීටරය පරීක්ෂා කර බලමින් ...

01:23:39,806 --> 01:23:43,226
සමාගම් සතුව ඇති දත්ත වත්කම්
අනුව බදු අය කරගන්න පුළුවන්

01:23:43,309 --> 01:23:47,856
මිහිමත සියලුම දත්ත රැස් කළාට
මුල්‍ය වශයෙන් වාසියක් ඔවුන්ට නෑ

01:23:47,939 --> 01:23:50,567
මේ කිසිවකට නීති සකස් වෙලා නෑ

01:23:50,650 --> 01:23:55,864
පරිශීලකයන්ගේ ආරක්ෂාව 
වෙනුවෙන් කිසිවක් නෑ

01:23:55,947 --> 01:24:01,453
දැවැන්ත සමාගම්වල අයිතිවාසිකම් 
සහ වරප්‍රසාද ආරක්ෂා කෙරෙනවා

01:24:02,245 --> 01:24:05,832
ධනවත්, බලවත් අයගේ 
යහපත පමණක් බැලීම හරිද?

01:24:05,915 --> 01:24:12,047
ජාතික අවශ්‍යතාව වෙනුවෙන් 
තීන්දු තීරණ ගන්නේ නැද්ද?

01:24:12,130 --> 01:24:15,592
මිනිසුන් ගැන, පරිශීලකයන් ගැන 
හිතන්නේ නැද්ද?

01:24:15,675 --> 01:24:17,385
එසේ කිරීමයි ඇත්තටම වටින්නේ

01:24:18,011 --> 01:24:21,473
දැනටමත් බිලියනපතියෙක් වුණු
කෙනෙකුගේ ලාබයට වඩා

01:24:21,556 --> 01:24:26,603
මේ වෙළඳපොළ ප්‍රජාතන්ත්‍රවාදයට 
හානි කරනවා, නිදහසට තර්ජනයක්

01:24:26,686 --> 01:24:31,816
ඔවුන්ගේ ක්‍රියාකලාපය නීතිවිරෝධීයි
මේක රැඩිකල් යෝජනාවක් නම් නොවේ

01:24:31,900 --> 01:24:34,194
දැනටමත් තහනම් කළ 
වෙළෙඳපොළ තියෙනවා

01:24:34,277 --> 01:24:39,491
අවයව ජාවාරම් තහනම්
වහල් වෙළෙඳාම තහනම් 

01:24:39,949 --> 01:24:44,037
එසේ තහනම් කළේ ඒවායේ
විනාශකාරී ප්‍රතිවිපාක ඇති නිසා

01:24:44,537 --> 01:24:50,001
අප ජීවත්වන ලෝකයේ කැපූ ගසක්
වටිනවා, ඒ ගස පණ පිටින් ඉන්නවට වඩා

01:24:50,085 --> 01:24:53,838
මරා දැමූ තල්මසෙකු වටිනවා
පණ ඇති එකෙකුට වඩා

01:24:53,922 --> 01:24:57,341
අපේ ආර්ථිකය මේ විදියට 
පවතින තාක් කල්

01:24:57,500 --> 01:25:01,763
ගස් කපා දැමේවි
තල්මසුන් මරා දැමේවි

01:25:01,846 --> 01:25:06,101
දිගටම පොළොව හාරමින් තෙල් සොයාවි

01:25:06,184 --> 01:25:08,394
එයින් පෘථිවිය විනාශ වෙනවා දැන දැනත්

01:25:08,478 --> 01:25:12,148
හොඳින් දන්නවා අනාගත පරම්පරාවට
ඉතිරි කරන ලෝකය යහපත් නෑ

01:25:12,232 --> 01:25:16,694
මෙතැන සිදුවන්නේ කෙටිකාලීන ලාබයක්
මුදල් ඉපයීමට ඇති ආසාව මත

01:25:16,778 --> 01:25:21,950
සෑම සමාගමක්ම ක්‍රියා කරන්නේ
ආත්මාර්ථකාමීව, ලාබ අපේක්ෂාවෙන්

01:25:22,033 --> 01:25:24,494
පරිසරයටත් අනිසි ලෙස බලපෑම්

01:25:24,577 --> 01:25:27,288
මේක අපට ඇති අවසන් අවස්ථාව

01:25:27,372 --> 01:25:31,709
ශිෂ්ටාචාරයක් විදියට අවදි විය යුතුයි
පවතින දෝෂසහිත බව වටහා ගන්න

01:25:31,793 --> 01:25:37,048
දැන් ගස සහ තල්මසුන් තමයි අපි
අපේ අවධානයයි, ඔවුන්ගේ ලාබය

01:25:37,132 --> 01:25:42,971
අපි ඔවුන්ගේ තිරයේ සිටියොත් 
සමාගම්වලට ලාබය ලැබෙනවා

01:25:43,054 --> 01:25:47,559
ඔවුන් අපට ගැලවෙන්න දෙන්නේ නෑ

01:25:47,642 --> 01:25:50,687
කෘත්‍රිම බුද්ධියෙන් අපව අල්ලා ගන්නවා

01:25:50,770 --> 01:25:53,648
අපේ අවධානය වැඩි වැඩියෙන්
ලබා ගන්නේ කෙසේදැයි බලනවා

01:25:53,731 --> 01:25:57,277
ඔවුන්ට කැමැති දේ අපට පෙන්වනවා

01:25:57,360 --> 01:26:00,322
අපේ අරමුණු, සාරධර්ම සහ 
ජීවිත ගැන තැකීමක් නොකර

01:26:05,535 --> 01:26:10,290
පරිගණකය යනු වඩාත්ම 
කැපී පෙනෙන උපකරණයක්

01:26:11,124 --> 01:26:13,877
අපේ මනසට බයිසිකලයක් වගේ

01:26:15,628 --> 01:26:20,091
සිලිකන් වැලි ආරම්භය මනුෂ්‍යයාට
හිතකර තාක්ෂණයක් නිර්මාණයයි

01:26:21,050 --> 01:26:25,722
කල්ගතවෙද්දී ඒ යහපත් 
අරමුණ නැතිවී ගියා

01:26:25,805 --> 01:26:27,265
අයහපත් දේ වැඩි වුණා

01:26:27,348 --> 01:26:29,726
අන්තර්ජාලය අමුතු, විකාර තැනක්

01:26:29,809 --> 01:26:34,731
පර්යේෂණාත්මක නිර්මාණශීලී
දේවල් සිද්ධ වෙන තැනක්

01:26:34,814 --> 01:26:38,610
ඒත් දැන් ඒක විශාල සුපිරි 
වෙළෙඳ සංකීර්ණයක් වගේ

01:26:38,693 --> 01:26:44,157
ඒත් දෙවියනේ,
එහෙම වෙන්න ඕනෑ නෑ

01:26:46,659 --> 01:26:48,411
මම සුබවාදීව හිතනවා

01:26:48,494 --> 01:26:52,040
සමාජ මාධ්‍ය යහපත් විදියට
වෙනස් කරන්න අපට පුළුවන්

01:26:54,083 --> 01:26:57,921
තාක්‍ෂණය භෞතික විද්‍යාවේ 
නීතිවලට අනුව සිදුවෙන්නේ නෑ

01:26:58,004 --> 01:27:02,175
තීන්දු තීරණ ගන්නේ 
මම වගේ තාක්ෂණික ශිල්පීන්

01:27:02,759 --> 01:27:05,345
එසේනම්, ඒ තාක්ෂණය 
වෙනස් කළ හැකියි

01:27:06,971 --> 01:27:09,974
වෙනස් වෙනවාදැයි 
අපි තීරණය කළ යුතුයි

01:27:10,475 --> 01:27:15,438
අවසන් ප්‍රතිඵලය නිෂ්පාදනයක් නොවී

01:27:21,027 --> 01:27:25,864
මේ දේවල් ගොඩනැගුවේ අපි නම්
වෙනස් කිරීමත් අපේ වගකීම වෙනවා

01:27:37,085 --> 01:27:42,298
පරිශීලකයන් හසුරුවන්න
ආකෘති නිර්මාණය වැරදියි

01:27:51,516 --> 01:27:56,145
නිරෝගී සමාජයක් බිහිවන්නේ
ව්‍යාපාරික ආකෘතියෙන් මිදුණොත්

01:28:04,696 --> 01:28:08,157
නිෂ්පාදන මානුෂිකව නිර්මාණය 
කරන ලෙස අපට ඉල්ලීමක් කළ හැකියි

01:28:09,409 --> 01:28:13,121
නිස්සාරණය කළ හැකි සම්පත් විදියට
අපව යොදා ගන්න එපා කියන්න පුළුවන්

01:28:15,164 --> 01:28:19,334
ඉලක්කය විය යුත්තේ
ලෝකයට යහපතක් කිරීමයි

01:28:20,336 --> 01:28:23,798
ඉතිහාසය පුරාම, මොකක් හෝ
වැරැද්දක් සිද්ධ වෙද්දී ...

01:28:23,881 --> 01:28:28,428
ඒ දේවල් නිවැරදි වුණේ
කවුරු හරි ඊට විරුද්ධ වුණු නිසා

01:28:29,178 --> 01:28:36,393
යහපත් දේ කිරීමට විවේචන ඕනෑ
සැබෑ සුබවාදීන් වන්නේ විවේචකයන්

01:28:46,195 --> 01:28:48,697
පිස්සුවක් වගේ නේද?

01:28:48,780 --> 01:28:56,873
මේ දේවල් නිපදවා ඇත්තේ 
වැරදි දිශාවකට යොමු වෙන්න

01:28:56,956 --> 01:29:02,670
සියල්ල වෙනස් කළ යුතුයැයි කීම
පිස්සුවක් වුණත්, එසේ කළ යුතුයි

01:29:04,297 --> 01:29:05,923
එහෙම වේවි හිතනවාද?

01:29:07,383 --> 01:29:08,301
වෙන්න ඕනෑ

01:29:20,646 --> 01:29:24,942
ඔබ සුබවාදීව හිතනවා වගේ 

01:29:26,194 --> 01:29:28,905
මගේ කතාවෙන් එහෙම හැඟුණාද?‍

01:29:28,988 --> 01:29:31,449
අපි විනාශය කරා ගමන් කරනවා

01:29:31,532 --> 01:29:35,328
වේගයෙන් විනාශය කරා යනවා
ගොඩ යන්න ක්‍රමයක් ඇත්තේ නෑ

01:29:35,411 --> 01:29:37,830
ගොඩ යන්න හාස්කමක් ඕනෑ

01:29:37,914 --> 01:29:40,891
ඒ හාස්කම තමයි හැමෝම 
එකම අදහසකට එන්න ඕනෑ

01:29:41,000 --> 01:29:44,587
මම සුබවාදීව හිතනවා තමයි 
අපට විසඳුමක් සොයන්න පුළුවන්

01:29:44,670 --> 01:29:47,048
ඒත් ඒකට හුඟක් කල්ගත වේවි‍

01:29:47,131 --> 01:29:50,385
හේතුව, ගැටලුවක් තිබෙනවා
වැඩි දෙනෙක් පිළිගන්නේ නෑ

01:29:50,468 --> 01:29:55,890
අද තාක්ෂණයේ තිබෙන
ලොකුම අසාර්ථකත්වය තමයි ...

01:29:55,973 --> 01:29:58,643
නිසි නායකත්වයක් ඒ පසුපස නැතිවීම

01:29:58,726 --> 01:30:01,979
බොහෝ දෙනා විවෘත සංවාදවල යෙදෙනවා

01:30:02,063 --> 01:30:08,194
හොඳ පමණක් නොවේ
වැරදි ගැනත් කතා කළ යුතුයි

01:30:08,277 --> 01:30:14,617
ලොකු විරෝධයක්, පීඩනයක් නැතිව
මේ තාක්ෂණය වෙනස් කරන්න අමාරුයි

01:30:14,700 --> 01:30:18,329
සංවාද හරහා, අදහස් පළ කිරීම හරහා

01:30:18,413 --> 01:30:21,082
ඇතැම් අවස්ථාවලදී
මේ තාක්ෂණයම භාවිතයට ගෙන ...

01:30:21,165 --> 01:30:24,252
අපට පුළුවන් වේවි අයහපත 
නැති කරන්න, වෙනසක් කරන්න

01:30:24,335 --> 01:30:27,004
අමුතුයි වගේ පෙනුනත්
මේ මගේ ලෝකය, මගේ සමාජය

01:30:27,088 --> 01:30:32,885
ගූගල් හෝ ෆේස්බුක් හානි කරන්න 
ඕනෑ නෑ, මට ඕනෑ ප්‍රතිසංස්කරණයක්

01:30:32,969 --> 01:30:35,513
මගේ ෆෝන් එකේ ඇප් 
ටොන් ගණනක් තිබෙනවා

01:30:35,596 --> 01:30:37,723
ඒ සියල්ල මගේ කාලය කා දැමීමක්

01:30:37,807 --> 01:30:40,685
සියලුම සමාජ මාධ්‍ය ඇප්,
සියලුම ප්‍රවෘත්ති ඇප්

01:30:40,768 --> 01:30:42,520
මම නෝටිෆිකේෂන් අක්‍රිය කළා

01:30:42,603 --> 01:30:45,815
සැරින් සැරේ ෆෝන් එක
වයිබ්‍රේට් වීම මට කරදරයක්

01:30:45,898 --> 01:30:51,279
මට ඒ කිසිවක් වැදගත් වන්නේ නෑ

01:30:51,362 --> 01:30:53,197
නෝටිෆිකේෂන් අක්‍රිය කළා

01:30:53,281 --> 01:30:55,950
නෝටිෆිකේෂන් වැඩක් නෑ
- සියල්ල අක්‍රිය කළා

01:30:56,033 --> 01:30:58,536
ගූගල් භාවිත කරන්නේ නෑ 
මම භාවිත කරන්නේ ක්වාන්ට්

01:30:58,619 --> 01:31:01,497
ක්වාන්ට් ඔබේ සෙවුම් 
ඉතිහාසය ගබඩා කරගන්නේ නෑ

01:31:01,581 --> 01:31:04,459
යූ ටියුබ් ඔබට නිර්දේශ කරන
කිසිම වීඩියෝවක් බලන්න එපා

01:31:04,542 --> 01:31:07,003
ඔබ ඔබට කැමැති දෙයක් 
තෝරාගෙන බලන්න

01:31:07,086 --> 01:31:12,133
නිර්දේශ ඉවත් කරන ක්‍රෝම් 
දිගු ටොන් ගණනක් තියෙනවා

01:31:12,216 --> 01:31:15,178
ඔබ නිර්මාණය කළ දෙයක්
ඔබම වෙනස් කරනවා?

01:31:16,929 --> 01:31:21,642
ෂෙයාර් කරන්න කලින් 
මූලාශ්‍ර ගැන අවබෝධයෙන් ඉන්න

01:31:21,726 --> 01:31:25,104
ඔබව පොලඹවා ගන්න
ඉඩ දෙන්න එපා

01:31:25,188 --> 01:31:29,025
ක්ලික් කිරීම ඡන්දය දීමක් වගේ

01:31:29,108 --> 01:31:30,359
ක්ලික්බේට් ක්ලික් කළොත් ...

01:31:30,443 --> 01:31:33,779
සදාකාලික මූල්‍ය දිරි ගැන්වීමකට 
දායක වෙනවා

01:31:33,863 --> 01:31:37,909
කල්පනාවෙන් ඉන්න ඔබට 
විවිධාකාරයේ තොරතුරු ලැබෙනවා

01:31:37,992 --> 01:31:40,995
මම ටිව්ටර්වල ෆලෝ කරන්නේ
මට වඩා විරුද්ධ අදහස් ඇති අය

01:31:41,078 --> 01:31:44,207
ඔවුන්ගේ දෘෂ්ටි කෝණයෙන් 
දැකීම හරි වැදගත් 

01:31:44,665 --> 01:31:49,045
තාක්ෂණික ක්ෂේත්‍රයේ වැඩිදෙනා
ඔවුන්ගේ දරුවන්ට උපාංග දෙන්නේ නෑ

01:31:49,128 --> 01:31:54,509
මගේ දරුවෝ සමාජ මාධ්‍ය 
භාවිතා කරන්නේ නෑ

01:31:55,092 --> 01:31:59,222
අපි ඒ ගැන උද්‍යෝගිමත්
ඇත්තටම අපිට පිස්සු

01:31:59,305 --> 01:32:05,603
අපි කැමැති නෑ අපේ දරුවෝ
සමාජ මාධ්‍යවල ගැවසෙනවාට

01:32:05,686 --> 01:32:12,610
සරල නීති තුනක් තියෙනවා
පවුල් ජීවිතය වඩා පහසු කරන්න

01:32:12,693 --> 01:32:17,281
නිදන කාමරේ නිදාගන්න යද්දී
කිසිම උපාංගයක් තියාගන්න බෑ

01:32:17,365 --> 01:32:20,535
පැය භාගයකට කලින් සියලුම
උපාංග ඉවත් කළ යුතුයි

01:32:20,618 --> 01:32:24,038
පාසල් අධ්‍යාපනය නිමා වෙනකල්
දරුවන්ට සමාජ මාධ්‍ය තහනම්

01:32:24,121 --> 01:32:26,374
ඒකට අවුරුදු 16 පසු කළ යුතුයි 

01:32:26,457 --> 01:32:28,960
පාසල් කටයුතු එක්ක 
සමාජ මාධ්‍ය පෑහෙන්නේ නෑ

01:32:29,043 --> 01:32:32,964
දරුවන් වෙනුවෙන් 
වෙලාව වෙන් කරගන්න

01:32:33,047 --> 01:32:39,637
සමාජ මාධ්‍යවල ඉන්න වෙලාව
ඔවුන් සමඟ කතාබහ කරන්න

01:32:39,720 --> 01:32:44,642
ඔවුන් සාධාරණ දෙයක් කියාවි
-  මම හොඳින් දන්නවා ...

01:32:44,725 --> 01:32:48,563
මගේ කීමට කවුරුවත් සමාජ මාධ්‍ය
ගිණුම් ඩිලීට් කරන්නේ නෑ

01:32:48,646 --> 01:32:54,402
දන්නවා, කීප දෙනෙක් එසේ කරාවි

01:32:54,485 --> 01:32:58,406
එය සංවාදයක් 
නිර්මාණයට හේතුවේවි 

01:32:58,489 --> 01:33:07,540
සමාජයේ බොහෝ දෙනෙක් ඉන්න ඕනෑ
සමාජ මාධ්‍ය බලපෑමට යටත් නොවුණු

01:33:07,623 --> 01:33:10,126
ඉතිං ඒක කරන්න
පද්ධතියෙන් අයින් වෙන්න

01:33:10,209 --> 01:33:12,503
ඩිලීට් කරන්න, අයින් වෙන්න ...

01:33:13,546 --> 01:33:17,507
එළියට යන්න, වටපිට බලන්න
ලෝකය හරිම සුන්දරයි